Шокирующее исследование показывает, что некоторые чат-боты с искусственным интеллектом могут способствовать совершению актов насилия.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Шокирующее исследование показывает, что некоторые чат-боты с искусственным интеллектом могут способствовать совершению актов насилия.

За широким распространением ИИ начинают проявляться определенные злоупотребления, настолько серьезные, что недавнее совместное расследование CNN и CCDH (Центр по борьбе с цифровой ненавистью) освещает тревожное явление.

Действительно, сообщается, что несколько чат-ботов способны давать подробные советы о том, как совершать насильственные действия, в том числе пользователям, утверждающим, что они несовершеннолетние.

Расследование, которое затрагивает главных игроков в сфере ИИ

Значительные различия между игроками… – Источник: CNN / CCDH

Для проведения своего исследования ученые смоделировали более 700 разговоров с девятью-десятью наиболее популярными чат-ботами на рынке, включая ChatGPT, Gemini и Meta AI. Сценарии были последовательными: исследователи представлялись подростками, сначала выражающими эмоциональное расстройство, а затем направляли разговор к планам насильственных нападений. В большинстве случаев системы предоставляли конкретную информацию, и восемь из десяти чат-ботов давали указания об оружии, целях или методах более чем в 50% протестированных ситуаций. Некоторые инструменты пошли еще дальше, предложив оптимизации для повышения эффективности атак. Согласно исследованию, наиболее критически важными платформами оказались Perplexity и Meta AI, которые показали положительные результаты в 100% и 97% случаев соответственно. Character.AI также подвергается критике за поощрение насильственных действий, иногда без явного подстрекательства.

Неравномерное применение мер безопасности

Клод, образцовый ученик, столкнувшийся со злоупотреблениями?

– Источник: CNN / CCDH

В действительности не все чат-боты одинаковы с точки зрения безопасности, и исследование подчеркивает, что некоторые системы имеют более надежные механизмы модерации.

Это особенно верно в отношении Клода d’Anthropic, который отказывался помогать в подавляющем большинстве случаев и даже направлял пользователей в службы поддержки в случае возникновения проблем.

Напротив, другие инструменты показали недостатки в своей способности обнаруживать злонамеренные намерения, в том числе когда пользователи заявляли о себе как о несовершеннолетних. По мнению авторов отчета, эти результаты демонстрируют, что технологии фильтрации существуют, но они не активируются систематически или не настроены должным образом.

Имран Ахмед, директор CCDH, предупреждает о скорости, с которой пользователь может перейти от расплывчатой идеи к структурированному плану действий. По его словам, такие запросы должны систематически приводить к немедленному отказу.

Реальные случаи, подтверждающие риски

Расследование не ограничивается моделированием, и несколько недавних случаев иллюстрируют очень реальные опасности, связанные с таким использованием

Например, в Финляндии 16-летний подросток зарезал трех одноклассников после того, как несколько месяцев использовал ChatGPT для изучения методов нападения и способов маскировки.

В Канаде в результате стрельбы погибли восемь человек и 27 получили ранения, и там также, как сообщается, нападавший использовал чат-бота для планирования нападения.

Эти события поднимают центральный вопрос для заинтересованных сторон в области ИИ: насколько далеко они должны зайти в регулировании использования своих инструментов? Баланс между быстрыми инновациями и ответственностью еще предстоит найти. найти…

Комментарии

Пожалуйста Авторизоваться чтобы оставить комментарий.

Хотите разместить свою тему

Присоединяйтесь к глобальному сообществу авторов и легко монетизируйте свой контент. Начните свой путь к пассивному доходу с Digbly сегодня!

Опубликовать это сейчас

Предлагается для вас