Технология Deepfakes: Meta подверглась критике за недостатки в борьбе с контентом, созданным искусственным интеллектом.
Mar 11
Wed, 11 Mar 2026 at 11:21 AM 0

Технология Deepfakes: Meta подверглась критике за недостатки в борьбе с контентом, созданным искусственным интеллектом.

Искусственный интеллект кардинально меняет поток информации в социальных сетях, до такой степени, что искусственно созданные изображения и видео могут с поразительной точностью имитировать реальные ситуации. В связи с этой эволюцией веб-гиганты пытаются адаптировать свои системы модерации. Но в случае с Meta эти усилия пока кажутся далеко не убедительными. Действительно, наблюдательный совет компании, ответственный за оценку решений по модерации контента, только что указал на ряд недостатков в управлении дипфейками на Facebook, Instagram и Threads. Согласно онлайн-отчету, текущим механизмам, существующие механизмы недостаточны для ограничения распространения вводящего в заблуждение контента, генерируемого ИИ…

Обнаружение дипфейков признано слишком ограниченным

После изучения видеороликов, включая один видеоролик, сгенерированный ИИ, демонстрирующий предполагаемый ущерб зданиям в Израиле, организация считает, что методы обнаружения, используемые Meta, «недостаточно надежны или всеобъемлющи»..

Что касается этого видео, которое было опубликовано в прошлом году во время конфликта между Израилем и Ираном, первоначально оно было оставлено в сети платформой. В конечном итоге Совет решил отменить это решение и предупредить Meta об ограничениях ее текущей стратегии. Одна из выявленных проблем касается чрезмерной опоры на самоотчетность создателей контента. На практике платформы часто полагаются на пользователей, которые сообщают, было ли изображение или видео создано искусственным интеллектом. Такой подход считается нереалистичным в условиях организованных кампаний по распространению дезинформации. Ситуация еще больше осложняется многоплатформенным распространением контента, как в рассматриваемом случае, видео, как сообщается, сначала было опубликовано в TikTok, а затем распространено в Facebook, Instagram и X, что затрудняет модерацию. Наблюдательный совет призывает к пересмотру системы модерации. Учитывая эти ограничения, Наблюдательный совет просит Meta тщательно пересмотреть свой подход к модерации, связанной с ИИ. С этой целью изучаются несколько путей повышения прозрачности и обнаружения синтетического контента. Среди рекомендаций — более широкое внедрение стандартов происхождения медиаконтента, таких как система C2PA (Content Credentials), предназначенная для идентификации происхождения цифрового файла. Этот тип технологии четко указывал бы пользователям интернета, было ли изображение или видео создано или изменено искусственным интеллектом. Совет также просит Meta разработать более эффективные инструменты обнаружения и обобщить маркировку контента, созданного ИИ. Цель состоит в том, чтобы сделать эту информацию видимой в больших масштабах, чтобы пользователи могли легче распознавать вводящий в заблуждение контент. Также предлагается создать отдельный стандарт сообщества, посвященный контенту, созданному с помощью ИИ, особенно потому, что такое правило позволило бы лучше регулировать дипфейки и быстрее реагировать на распространение вводящего в заблуждение контента. Хотя эти рекомендации появляются на фоне растущей напряженности вокруг дезинформации и роли платформ, по мере того как инструменты ИИ становятся все более доступными, способность социальных сетей отличать правду от лжи становится серьезной проблемой для достоверности онлайн-информации.

Комментарии

Пожалуйста Авторизоваться чтобы оставить комментарий.

Хотите разместить свою тему

Присоединяйтесь к глобальному сообществу авторов и легко монетизируйте свой контент. Начните свой путь к пассивному доходу с Digbly сегодня!

Опубликовать это сейчас

Предлагается для вас