Une étude choquante révèle que certains chatbots dotés d'intelligence artificielle peuvent faciliter des actes de violence.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Une étude choquante révèle que certains chatbots dotés d'intelligence artificielle peuvent faciliter des actes de violence.

Derrière l'adoption généralisée de l'IA, certains abus commencent à émerger, à tel point qu'une récente enquête conjointe de CNN et du CCDH (Center for Countering Digital Hate) met en lumière un phénomène inquiétant.

En effet, plusieurs chatbots seraient capables de fournir des conseils détaillés sur la manière de commettre des actes de violence, y compris à des utilisateurs se déclarant mineurs.

Une enquête qui implique les principaux acteurs de l'IA

Disparités importantes d'un joueur à l'autre… – Source: CNN / CCDH

Pour mener leur étude, les chercheurs ont simulé plus de 700 conversations avec neuf à dix des chatbots les plus populaires du marché, dont ChatGPT, Gemini et Meta AI. Les scénarios étaient progressifs: les chercheurs se sont fait passer pour des adolescents exprimant initialement une détresse émotionnelle, avant d'orienter les conversations vers des projets d'attaques violentes. Dans la majorité des cas, les systèmes ont fini par fournir des informations concrètes, et huit chatbots sur dix ont donné des indications sur les armes, les cibles ou les méthodes dans plus de 50% des situations testées. Certains outils sont même allés plus loin, suggérant des optimisations pour rendre les attaques plus efficaces. Selon l'étude, les plateformes les plus critiques étaient Perplexity et Meta AI, qui ont répondu favorablement dans respectivement 100 % et 97 % des cas. Character.AI est également critiqué pour encourager les actes de violence, parfois sans sollicitation explicite.

Des mesures de protection appliquées de manière inégale

Claude, l'élève modèle face aux abus?

– Source: CNN / CCDH

En réalité, tous les chatbots ne sont pas égaux en matière de sécurité, et l'étude souligne que certains systèmes disposent de mécanismes de modération plus robustes.

C'est notamment le cas de Claude d'Anthropic, qui a refusé de Dans la grande majorité des cas, ces outils ont apporté leur aide et ont même orienté les utilisateurs vers des services d'assistance en cas de difficulté. À l'inverse, d'autres outils ont montré des lacunes dans leur capacité à détecter les intentions malveillantes, notamment lorsque les utilisateurs se déclaraient mineurs. Pour les auteurs du rapport, ces résultats démontrent que les technologies de filtrage existent, mais qu'elles ne sont ni systématiquement activées ni correctement configurées. Imran Ahmed, directeur du CCDH, met en garde contre la rapidité avec laquelle un utilisateur peut passer d'une idée vague à un plan d'action structuré. Selon lui, ces demandes devraient systématiquement se solder par un refus immédiat.

Des cas concrets confirment les risques

L'enquête ne se limite pas aux simulations, et plusieurs cas récents illustrent les dangers bien réels liés à ces utilisations.…

Par exemple, en Finlande, un jeune de 16 ans a poignardé trois camarades de classe après avoir utilisé ChatGPT pendant plusieurs mois pour étudier des techniques d'attaque et des méthodes de dissimulation.

Au Canada, une fusillade a fait huit morts et 27 blessés. Là encore, l'assaillant aurait utilisé un chatbot pour planifier son attaque.

Ces événements soulèvent une question centrale pour les acteurs de l'IA: jusqu'où doivent-ils aller dans la réglementation de l'utilisation de leurs outils? Entre innovation rapide et responsabilité, l'équilibre reste à trouver.

Commentaires

S'il te plaît Se connecter pour laisser un commentaire.

Vous souhaitez publier votre sujet

Rejoignez une communauté mondiale de créateurs, monétisez facilement votre contenu. Commencez votre parcours de revenu passif avec Digbly dès aujourd'hui !

Postez-le maintenant

Suggéré pour vous