Deepfakes: Meta criticada por suas deficiências no combate ao conteúdo gerado por IA
A inteligência artificial está transformando profundamente o fluxo de informações nas redes sociais, a ponto de imagens e vídeos criados artificialmente poderem imitar situações da vida real com uma precisão perturbadora.
Diante dessa evolução, as gigantes da internet estão tentando adaptar seus sistemas de moderação. Mas, no caso da Meta, esses esforços ainda parecem estar longe de serem convincentes.
De fato, o Conselho de Supervisão da empresa, responsável por avaliar as decisões de moderação de conteúdo, acaba de apontar diversas deficiências na gestão de deepfakes no Facebook, Instagram e Threads.
De acordo com o relatório online, os mecanismos atuais são insuficientes para limitar a disseminação de conteúdo enganoso gerado por IA…Detecção considerada muito limitada contra deepfakes
Após examinar vídeos, incluindo um vídeo gerado por IA mostrando supostos danos a edifícios em Israel, a organização acredita que os métodos de detecção usados pela Meta não são robustos ou abrangentes o suficiente..
Em relação a este vídeo, que foi divulgado no ano passado durante um conflito entre Israel e Irã, ele foi inicialmente mantido online pela plataforma. O Conselho decidiu, por fim, reverter essa decisão e alertar a Meta sobre as limitações de sua estratégia atual. Um dos problemas identificados diz respeito à dependência excessiva de autodenúncias por parte dos criadores de conteúdo. Na prática, as plataformas muitas vezes dependem dos usuários para relatar se uma imagem ou vídeo foi gerado por inteligência artificial. Essa abordagem é considerada irrealista diante de campanhas organizadas de desinformação. A situação é ainda mais complicada pela circulação multiplataforma do conteúdo, como no caso estudado, em que o vídeo teria sido publicado primeiro no TikTok antes de ser compartilhado no Facebook, Instagram e X, dificultando a moderação. O Conselho de Supervisão pede uma reformulação da moderação. Diante dessas limitações, o Conselho de Supervisão solicita que a Meta revise minuciosamente sua abordagem à moderação relacionada à IA. Para tanto, diversas vias estão sendo exploradas para melhorar a transparência e a detecção de conteúdo sintético. Entre as recomendações está a implementação mais ampla de padrões de proveniência de mídia, como o sistema C2PA (Content Credentials), projetado para identificar a origem de um arquivo digital. Esse tipo de tecnologia indicaria claramente aos usuários da internet se uma imagem ou vídeo foi gerado ou modificado por IA. O Conselho também solicita que a Meta desenvolva ferramentas de detecção mais eficazes e generalize a rotulagem de conteúdo gerado por IA. O objetivo é, portanto, tornar essas informações visíveis em larga escala, para que os usuários possam identificar mais facilmente mídias enganosas. Também é solicitada a criação de um padrão comunitário separado dedicado a conteúdo gerado por IA, especialmente porque tal regra permitiria uma melhor regulamentação de deepfakes e uma resposta mais rápida quando conteúdo enganoso circula. Embora essas recomendações surjam em meio a crescentes tensões em torno da desinformação e do papel das plataformas, à medida que as ferramentas de IA se tornam mais acessíveis, a capacidade das redes sociais de distinguir a verdade da mentira está se tornando uma questão importante para a confiabilidade das informações online.
Por favor Conecte-se para deixar um comentário.
Quer postar seu tópico
Junte-se a uma comunidade global de criadores e monetize seu conteúdo facilmente. Comece sua jornada de renda passiva com Digbly hoje!
Poste agora
Comentários