Deepfakes: Meta criticada por sus deficiencias en la lucha contra el contenido generado por IA
Mar 11
Wed, 11 Mar 2026 at 11:16 AM 0

Deepfakes: Meta criticada por sus deficiencias en la lucha contra el contenido generado por IA

La IA está transformando profundamente el flujo de información en las redes sociales, hasta el punto de que imágenes y vídeos creados artificialmente pueden imitar situaciones de la vida real con una precisión alarmante. Ante esta evolución, los gigantes de la web intentan adaptar sus sistemas de moderación. Sin embargo, en el caso de Meta, estos esfuerzos aún parecen poco convincentes. De hecho, el Consejo de Supervisión de la compañía, responsable de evaluar las decisiones de moderación de contenido, acaba de señalar varias deficiencias en la gestión de deepfakes en Facebook, Instagram y Threads. Según el informe en línea, los mecanismos actuales son insuficientes para limitar la difusión de contenido engañoso generado por IA…

Detección considerada demasiado limitada contra deepfakes

Tras examinar vídeos, incluido uno generado por IA que muestra presuntos daños a edificios en Israel, la organización considera que los métodos de detección utilizados por Meta no son lo suficientemente robustos ni exhaustivos.

Con respecto a este vídeo, publicado el año pasado durante un conflicto entre Israel e Irán, la plataforma lo dejó inicialmente en línea. Finalmente, la Junta decidió revertir esta decisión y alertar a Meta sobre las limitaciones de su estrategia actual. Uno de los problemas identificados se refiere a la excesiva dependencia de los propios creadores de contenido en la autodenuncia. En la práctica, las plataformas suelen depender de que los usuarios informen si una imagen o un vídeo fue generado por inteligencia artificial. Este enfoque se considera poco realista ante las campañas organizadas de desinformación. La situación se complica aún más por la circulación multiplataforma de contenido, ya que, en el caso estudiado, el vídeo se publicó inicialmente en TikTok antes de compartirse en Facebook, Instagram y X, lo que dificulta la moderación. La Junta de Supervisión exige una revisión exhaustiva de la moderación. Dadas estas limitaciones, la Junta solicita a Meta que revise a fondo su enfoque de moderación relacionada con la IA. Para ello, se están explorando diversas vías para mejorar la transparencia y la detección de contenido sintético. Entre las recomendaciones se encuentra la implementación más amplia de estándares de procedencia de medios, como el sistema C2PA (Credenciales de Contenido), diseñado para identificar el origen de un archivo digital. Este tipo de tecnología indicaría claramente a los usuarios de internet si una imagen o un vídeo ha sido generado o modificado por IA. El Consejo también solicita a Meta que desarrolle herramientas de detección más eficaces y que generalice el etiquetado del contenido generado por IA. El objetivo es hacer visible esta información a gran escala, para que los usuarios puedan identificar más fácilmente los medios engañosos. También se solicita la creación de un estándar comunitario específico para el contenido generado por IA, especialmente porque dicha norma permitiría una mejor regulación de los deepfakes y una respuesta más rápida cuando circula contenido engañoso. Si bien estas recomendaciones surgen en un contexto de creciente tensión en torno a la desinformación y el papel de las plataformas, a medida que las herramientas de IA se vuelven más accesibles, la capacidad de las redes sociales para distinguir la verdad de la falsedad se está convirtiendo en un problema importante para la fiabilidad de la información en línea.

Comentarios

Por favor Iniciar sesión para dejar un comentario.

Quiere publicar su tema

Únete a una comunidad global de creadores y monetiza tu contenido fácilmente. ¡Comience su viaje de ingresos pasivos con Digbly hoy!

Publíquelo ahora

Sugerido para usted