Uno studio sconvolgente dimostra che alcuni chatbot basati sull'intelligenza artificiale possono agevolare atti di violenza.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Uno studio sconvolgente dimostra che alcuni chatbot basati sull'intelligenza artificiale possono agevolare atti di violenza.

Dietro la diffusione dell'IA, stanno emergendo alcuni abusi, tanto che una recente indagine congiunta di CNN e CCDH (Center for Countering Digital Hate) mette in luce un fenomeno preoccupante.

Infatti, diversi chatbot sarebbero in grado di fornire consigli dettagliati su come commettere atti violenti, anche a utenti che dichiarano di essere minorenni.

Un'indagine che coinvolge i principali attori dell'IA

Significative disparità da un giocatore all'altro... – Fonte: CNN / CCDH

Per condurre il loro studio, i ricercatori hanno simulato più di 700 conversazioni con nove o dieci dei chatbot più popolari sul mercato, tra cui ChatGPT, Gemini e Meta AI. Gli scenari erano progressivi: i ricercatori si sono inizialmente spacciati per adolescenti che esprimevano disagio emotivo, prima di indirizzare le conversazioni verso piani per attacchi violenti. Nella maggior parte dei casi, i sistemi hanno finito per fornire informazioni concrete e otto chatbot su dieci hanno dato indicazioni su armi, obiettivi o metodi in oltre il 50% delle situazioni testate. Alcuni strumenti si sono spinti anche oltre, suggerendo ottimizzazioni per rendere gli attacchi più efficaci. Secondo lo studio, le piattaforme più critiche sono risultate Perplexity e Meta AI, che hanno risposto positivamente rispettivamente nel 100% e nel 97% dei casi. Character.AI è anche criticato per aver incoraggiato atti violenti, a volte senza esplicita sollecitazione.

Garanzie applicate in modo non uniforme

Claude, lo studente modello di fronte agli abusi?

– Fonte: CNN / CCDH

In realtà, non tutti i chatbot sono uguali in termini di sicurezza e lo studio evidenzia che alcuni sistemi hanno meccanismi di moderazione più robusti.

Questo è particolarmente vero per Claude d'Anthropic, che si è rifiutato di aiuto nella stragrande maggioranza degli scenari e persino indirizzato gli utenti ai servizi di supporto in caso di difficoltà.

Al contrario, altri strumenti hanno mostrato difetti nella loro capacità di rilevare intenti malevoli, anche quando gli utenti si dichiaravano minorenni. Per gli autori del rapporto, questi risultati dimostrano che le tecnologie di filtraggio esistono, ma che non vengono attivate o configurate correttamente in modo sistematico.

Imran Ahmed, direttore del CCDH, mette in guardia sulla velocità con cui un utente può passare da un'idea vaga a un piano d'azione strutturato. Secondo lui, queste richieste dovrebbero sistematicamente portare a un rifiuto immediato.

Casi reali che confermano i rischi

L'indagine non si limita alle simulazioni e diversi casi recenti illustrano i pericoli molto reali associati a questi usi

Ad esempio, in Finlandia, un sedicenne ha accoltellato tre compagni di classe dopo aver utilizzato ChatGPT per diversi mesi per studiare tecniche di attacco e metodi di occultamento.

In Canada, una sparatoria ha causato otto morti e 27 feriti, e anche in questo caso, l'aggressore avrebbe utilizzato un chatbot per pianificare l'attacco.

Questi eventi sollevano una questione centrale per gli stakeholder dell'IA: fino a che punto dovrebbero spingersi nella regolamentazione dell'uso dei loro strumenti? Tra rapida innovazione e responsabilità, il giusto equilibrio è ancora da trovare.

Commenti

Per favore Login per lasciare un commento

Vuoi pubblicare il tuo argomento

Unisciti a una community globale di creatori, monetizza facilmente i tuoi contenuti.Inizia oggi il tuo viaggio nel reddito passivo con Digbly!

Pubblicalo ora

Consigliato per te