In handen van cybercriminelen of een autoritaire staat kan AI, zoals ChatGPT, een reële bedreiging vormen voor online anonimiteit en onze privacy.
Is dit het einde van online anonimiteit dankzij AI die fungeert als een superprivédetective die zelfs de meest geheimzinnige internetgebruikers kan ontmaskeren? Het idee lijkt misschien vergezocht, maar het werk van deze twee onderzoekers lijkt te bewijzen dat het realiteit is, geen fantasie. Een onderzoek, gepubliceerd door The Guardian, onthult dat cybercriminelen steeds vaker kunstmatige intelligentie gebruiken om anonieme social media-accounts gemakkelijker te identificeren. Dankzij grote taalmodellen (zoals ChatGPT, Claude, Gemini, enz.) is het mogelijk om een account te koppelen aan een echt persoon, met name op basis van de informatie die ze delen. Dit maakt geavanceerde en winstgevende aanvallen mogelijk, leggen Simon Lermen en Daniel Paleka uit, de twee onderzoekers achter de studie. Zij pleiten voor een "fundamentele" heroverweging van wat we online als privé-informatie beschouwen. Om deze ontdekking te doen, integreerden ze eerst twee anonieme accounts in een AI, die ze zoveel mogelijk informatie lieten verzamelen. Een van de twee accounts (@anon_user42) sprak over zijn problemen op school en zijn gewoonte om met zijn hond Biscuit te wandelen in een park genaamd "Dolores". Dankzij deze informatie kon de AI vervolgens het web scannen om met een hoge mate van zekerheid de identiteit van de persoon achter het account te achterhalen. De onderzoekers zijn van mening dat deze methode gemakkelijk kan worden misbruikt door hackers, maar ook door overheden die dissidenten het zwijgen willen opleggen die vaak anoniem campagne voeren op sociale media. Grote taalmodellen beschikken inderdaad over een snelle en zeer efficiënte analytische capaciteit – misschien wel té efficiënt – wat kan leiden tot het vergelijken van informatie die de anonimiteit in gevaar kan brengen en ernstige veiligheidsproblemen kan veroorzaken. Een hacker zou zich dus gemakkelijk kunnen voordoen als iemand anders en die persoon in een phishing-aanval lokken met behulp van de door de AI verzamelde gegevens. Kostbare processen zijn niet langer nodig om dit doel te bereiken: een AI en een internetverbinding zijn voldoende. Hoewel de studie aantoont dat kunstmatige intelligentie effectief is, is Peter Bentley, hoogleraar informatiewetenschappen aan UCL, het daar niet mee eens. In een interview met de Britse media hekelt hij een trend die ertoe zou kunnen leiden dat "mensen worden beschuldigd van dingen die ze niet hebben gedaan". Er bestaat ook het risico dat grote taalmodellen afhankelijk worden van openbare gegevens die veel verder reiken dan sociale media. Statistische rapporten, ziekenhuisdossiers en opnamegegevens zouden gebruikt kunnen worden.
De studie toont vooral aan dat online, en met name op sociale media, de manier waarop een gebruiker interacteert, waarnemers gemakkelijk naar zijn of haar ware identiteit kan leiden. Het is daarom essentieel om altijd voorzichtig te zijn met wat je online doet en meerdere stappen te nemen om volledige anonimiteit te behouden – bijvoorbeeld door een e-mailadres of telefoonnummer te gebruiken dat losstaat van de rest van je leven. De twee onderzoekers roepen socialemediaplatformen op om de toegang tot gegevens waartoe AI toegang heeft te beperken, met name om 'scraping' te voorkomen, een functie die veelvuldig wordt gebruikt door taalmodellen om zoveel mogelijk informatie te verzamelen voor training.
Alsjeblieft Login om een reactie achter te laten.
Wilt u uw onderwerp plaatsen
Sluit u aan bij een wereldwijde gemeenschap van makers en genereer eenvoudig inkomsten met uw inhoud.Begin vandaag nog met uw passieve inkomensreis met Digbly!
Plaats het nu
Opmerkingen