I händerna på cyberbrottslingar eller en auktoritär stat kan AI, som ChatGPT, bli ett verkligt hot mot anonymitet online och vår integritet.
Mar 10
Tue, 10 Mar 2026 at 06:25 AM 0

I händerna på cyberbrottslingar eller en auktoritär stat kan AI, som ChatGPT, bli ett verkligt hot mot anonymitet online och vår integritet.

En studie av två forskare som specialiserar sig på artificiell intelligens har visat att stora språkmodeller snabbt kan länka ett anonymt socialt mediekonto till en verklig person.

Är detta slutet på anonymitet online tack vare AI som agerar som en superprivatdetektiv som kan avslöja även de mest hemlighetsfulla internetanvändarna? Idén kan verka långsökt, men dessa två forskares arbete verkar bevisa att det är verklighet, inte fantasi. En studie som rapporterats av The Guardian avslöjar att cyberbrottslingar i allt högre grad använder artificiell intelligens för att lättare identifiera anonyma sociala mediekonton. Tack vare stora språkmodeller (som ChatGPT, Claude, Gemini, etc.) är det möjligt att länka ett konto till en verklig människa, särskilt baserat på den information de delar. Detta möjliggör sofistikerade och lönsamma attacker, förklarar Simon Lermen och Daniel Paleka, de två forskarna bakom studien, som efterlyser en "grundläggande" omprövning av vad vi anser vara privat information online.

AI skräddarsydd för att genomsöka webben, utformad för att korsreferera data

För att göra denna upptäckt integrerade de först två anonyma konton i en AI, som lät den hämta så mycket information som möjligt. Ett av de två kontona (@anon_user42) berättade om sina svårigheter i skolan och sin tendens att rasta sin hund Biscuit i en park som heter "Dolores". Tack vare denna information kunde AI:n sedan skanna webben för att ge identiteten på personen bakom kontot en hög grad av säkerhet.

Forskarna tror att denna metod lätt kan utnyttjas av hackare, men också av regeringar som vill tysta dissidenter som oftast kampanjar anonymt på sociala medier. Stora språkmodeller har verkligen en snabb och mycket effektiv analytisk kapacitet – kanske för effektiv – vilket leder till korsreferenser av information som kan äventyra anonymiteten och orsaka allvarliga säkerhetsproblem. En hackare skulle således lätt kunna utge sig för att vara någon annan och locka dem till en nätfiskeoperation med hjälp av de uppgifter som samlats in av AI:n. Kostsamma processer är inte längre nödvändiga för att uppnå detta mål: en AI och en internetanslutning är allt som behövs. Även om studien visar att artificiell intelligens är effektiv, håller Peter Bentley, professor i informationsvetenskap vid UCL, inte med. Intervjuad av brittiska medier fördömer han en trend som kan leda till att "människor anklagas för saker de inte gjorde". Det finns också en risk att stora språkmodeller kan förlita sig på offentlig data långt bortom sociala medier. Statistiska rapporter, sjukhusjournaler och inläggningsjournaler skulle kunna användas.

Studien visar främst att online, och särskilt på sociala medier, kan det sätt en användare interagerar på lätt leda observatörer till sin verkliga identitet. Det är därför viktigt att alltid vara försiktig med vad man gör online, samtidigt som man vidtar flera åtgärder för att upprätthålla fullständig anonymitet – till exempel genom att använda en e-postadress eller ett telefonnummer separat från resten av sitt liv. De två forskarna uppmanar sociala medieplattformar att begränsa åtkomsten till data som AI kan komma åt, särskilt för att förhindra "skrapning", en funktion som används flitigt av språkmodeller för att samla in så mycket information som möjligt för utbildning.

Kommentarer

Behaga Inloggning för att lämna en kommentar.

Vill du lägga upp ditt ämne

Gå med i en global gemenskap av kreatörer, tjäna pengar på ditt innehåll enkelt. Börja din passiva inkomstresa med Digbly idag!

Lägg upp det nu

Föreslagna för dig