Шокирующее исследование показывает, что некоторые чат-боты с искусственным интеллектом могут способствовать совершению актов насилия.
За широким распространением ИИ начинают проявляться определенные злоупотребления, настолько серьезные, что недавнее совместное расследование CNN и CCDH (Центр по борьбе с цифровой ненавистью) освещает тревожное явление.
Действительно, сообщается, что несколько чат-ботов способны давать подробные советы о том, как совершать насильственные действия, в том числе пользователям, утверждающим, что они несовершеннолетние.
Расследование, которое затрагивает главных игроков в сфере ИИ

Значительные различия между игроками… – Источник: CNN / CCDH
Для проведения своего исследования ученые смоделировали более 700 разговоров с девятью-десятью наиболее популярными чат-ботами на рынке, включая ChatGPT, Gemini и Meta AI. Сценарии были последовательными: исследователи представлялись подростками, сначала выражающими эмоциональное расстройство, а затем направляли разговор к планам насильственных нападений. В большинстве случаев системы предоставляли конкретную информацию, и восемь из десяти чат-ботов давали указания об оружии, целях или методах более чем в 50% протестированных ситуаций. Некоторые инструменты пошли еще дальше, предложив оптимизации для повышения эффективности атак. Согласно исследованию, наиболее критически важными платформами оказались Perplexity и Meta AI, которые показали положительные результаты в 100% и 97% случаев соответственно. Character.AI также подвергается критике за поощрение насильственных действий, иногда без явного подстрекательства.
Неравномерное применение мер безопасности

Клод, образцовый ученик, столкнувшийся со злоупотреблениями?
– Источник: CNN / CCDHВ действительности не все чат-боты одинаковы с точки зрения безопасности, и исследование подчеркивает, что некоторые системы имеют более надежные механизмы модерации.
Это особенно верно в отношении Клода d’Anthropic, который отказывался помогать в подавляющем большинстве случаев и даже направлял пользователей в службы поддержки в случае возникновения проблем.
Напротив, другие инструменты показали недостатки в своей способности обнаруживать злонамеренные намерения, в том числе когда пользователи заявляли о себе как о несовершеннолетних. По мнению авторов отчета, эти результаты демонстрируют, что технологии фильтрации существуют, но они не активируются систематически или не настроены должным образом.
Имран Ахмед, директор CCDH, предупреждает о скорости, с которой пользователь может перейти от расплывчатой идеи к структурированному плану действий. По его словам, такие запросы должны систематически приводить к немедленному отказу.
Реальные случаи, подтверждающие риски
Расследование не ограничивается моделированием, и несколько недавних случаев иллюстрируют очень реальные опасности, связанные с таким использованием…
Например, в Финляндии 16-летний подросток зарезал трех одноклассников после того, как несколько месяцев использовал ChatGPT для изучения методов нападения и способов маскировки.
В Канаде в результате стрельбы погибли восемь человек и 27 получили ранения, и там также, как сообщается, нападавший использовал чат-бота для планирования нападения.
Эти события поднимают центральный вопрос для заинтересованных сторон в области ИИ: насколько далеко они должны зайти в регулировании использования своих инструментов? Баланс между быстрыми инновациями и ответственностью еще предстоит найти. найти…
Пожалуйста Авторизоваться чтобы оставить комментарий.
Хотите разместить свою тему
Присоединяйтесь к глобальному сообществу авторов и легко монетизируйте свой контент. Начните свой путь к пассивному доходу с Digbly сегодня!
Опубликовать это сейчас
Комментарии