Mar 11
Wed, 11 Mar 2026 at 11:23 AM 0
Deepfakes:Meta 因其在打击人工智能生成内容方面的不足而受到批评
人工智能正在深刻地改变社交媒体上的信息流动,以至于人工智能生成的图像和视频能够以惊人的准确度模仿现实生活中的场景。
面对这种演变,网络巨头们正试图调整其内容审核系统。但就 Meta 而言,这些努力似乎仍然远未达到令人满意的效果。
事实上,该公司负责评估内容审核决策的监督委员会刚刚指出,Facebook、Instagram 和 Threads 在深度伪造内容的管理方面存在一些不足。根据在线报告,现有机制不足以限制人工智能生成的误导性内容的传播……
针对深度伪造内容的检测被认为过于有限
在审查了包括一段显示以色列建筑物疑似受损的人工智能生成视频在内的视频后,该组织认为Meta使用的检测方法“不够强大或全面”。。
关于这段去年在以色列和伊朗冲突期间发布的视频,最初该平台并未将其移除。委员会最终决定撤销这一决定,并提醒Meta注意其当前策略的局限性。其中一个已发现的问题是过度依赖内容创作者的自我报告。
在实践中,平台通常依赖用户举报图片或视频是否由人工智能生成。面对有组织的虚假信息宣传活动,这种方法被认为不切实际。内容的多平台传播进一步加剧了这一问题,例如,在所研究的案例中,据报道该视频最初发布在TikTok上,之后又被分享到Facebook、Instagram和X平台,这使得内容审核更加困难。监督委员会呼吁对内容审核机制进行全面改革。鉴于这些局限性,监督委员会要求Meta公司彻底审查其人工智能相关内容的审核方法。为此,委员会正在探索多种途径来提高透明度并加强对合成内容的检测。其中一项建议是更广泛地部署媒体来源标准,例如C2PA(内容凭证)系统,该系统旨在识别数字文件的来源。这类技术可以清晰地向互联网用户表明图片或视频是否由人工智能生成或修改。委员会还要求Meta公司开发更有效的检测工具,并推广人工智能生成内容的标签标注。因此,目标是让这些信息大规模可见,以便用户更容易识别误导性媒体。此外,还呼吁制定一套专门针对人工智能生成内容的独立社区标准,尤其因为这样的规则能够更好地监管深度伪造内容,并在误导性内容传播时做出更快的响应。尽管这些建议是在围绕虚假信息和平台角色日益紧张的背景下提出的,但随着人工智能工具的普及,社交网络区分真假信息的能力正成为影响在线信息可靠性的一个重大问题。请 登录 发表评论。
评论