Nelle mani di criminali informatici o di uno stato autoritario, l'intelligenza artificiale come ChatGPT può diventare una vera minaccia per l'anonimato online e la nostra privacy.
È questa la fine dell'anonimato online grazie all'intelligenza artificiale che agisce come un super investigatore privato in grado di smascherare anche gli utenti di Internet più riservati? L'idea può sembrare inverosimile, ma il lavoro di questi due ricercatori sembra dimostrare che si tratta di una realtà, non di una fantasia. Uno studio riportato da The Guardian rivela che i criminali informatici utilizzano sempre più l'intelligenza artificiale per identificare più facilmente gli account anonimi sui social media. Grazie a modelli linguistici di grandi dimensioni (come ChatGPT, Claude, Gemini, ecc.), è possibile collegare un account a un essere umano reale, in particolare in base alle informazioni che questi condivide. Questo consente attacchi sofisticati e redditizi, spiegano Simon Lermen e Daniel Paleka, i due ricercatori che hanno condotto lo studio, che chiedono una riconsiderazione "fondamentale" di ciò che consideriamo informazioni private online.
Intelligenza artificiale su misura per scandagliare il web, progettata per incrociare i dati
Per arrivare a questa scoperta, hanno prima integrato due account anonimi in un'intelligenza artificiale, facendole recuperare quante più informazioni possibili. Uno dei due account (@anon_user42) parlava delle sue difficoltà a scuola e della sua tendenza a portare a spasso il suo cane Biscuit in un parco chiamato "Dolores". Grazie a queste informazioni, l'IA è stata in grado di analizzare il web per identificare con un elevato grado di certezza l'identità della persona dietro l'account.
I ricercatori ritengono che questo metodo possa essere facilmente sfruttato dagli hacker, ma anche dai governi che desiderano mettere a tacere i dissidenti che spesso conducono campagne anonime sui social media. I modelli linguistici di grandi dimensioni hanno infatti una capacità analitica rapida ed efficiente – forse fin troppo efficiente – che porta a un controllo incrociato delle informazioni che può compromettere l'anonimato e causare seri problemi di sicurezza. Un hacker potrebbe quindi facilmente impersonare qualcun altro e attirarlo in un'operazione di phishing utilizzando i dettagli raccolti dall'IA. Per raggiungere questo obiettivo non sono più necessari processi costosi: bastano un'IA e una connessione Internet. Sebbene lo studio dimostri l'efficacia dell'intelligenza artificiale, Peter Bentley, professore di scienze dell'informazione presso l'UCL, non è d'accordo. Intervistato dai media britannici, denuncia una tendenza che potrebbe portare a "accusare le persone di cose che non hanno fatto". C'è anche il rischio che i modelli linguistici di grandi dimensioni possano basarsi su dati pubblici che vanno ben oltre i social media. Potrebbero essere utilizzati report statistici, cartelle cliniche ospedaliere e registri di ammissione.
Lo studio mostra principalmente che online, e in particolare sui social media, il modo in cui un utente interagisce può facilmente portare gli osservatori alla sua vera identità. È quindi essenziale prestare sempre attenzione a ciò che si fa online, adottando al contempo diverse misure per mantenere il completo anonimato, ad esempio utilizzando un indirizzo email o un numero di telefono separato dal resto della propria vita. I due ricercatori invitano le piattaforme di social media a limitare l'accesso ai dati a cui l'IA può accedere, in particolare per impedire lo "scraping", una funzionalità ampiamente utilizzata dai modelli linguistici per raccogliere quante più informazioni possibili per l'addestramento.
Per favore Login per lasciare un commento
Vuoi pubblicare il tuo argomento
Unisciti a una community globale di creatori, monetizza facilmente i tuoi contenuti.Inizia oggi il tuo viaggio nel reddito passivo con Digbly!
Pubblicalo ora
Commenti