Deepfakes: Meta wegen seiner Mängel im Kampf gegen KI-generierte Inhalte kritisiert
Erkennung von Deepfakes als zu eingeschränkt
Nach der Prüfung von Videos, darunter ein KI-generiertes Video, das angebliche Gebäudeschäden in Israel zeigt, ist die Organisation der Ansicht, dass die von Meta verwendeten Erkennungsmethoden „nicht robust oder umfassend genug“ sind..
Dieses Video, das letztes Jahr während eines Konflikts zwischen Israel und dem Iran veröffentlicht wurde, wurde zunächst von der Plattform online gelassen. Der Vorstand beschloss schließlich, diese Entscheidung zu revidieren und Meta auf die Grenzen seiner aktuellen Strategie hinzuweisen. Eines der identifizierten Probleme betrifft die übermäßige Abhängigkeit von Selbstmeldungen der Urheber. In der Praxis verlassen sich Plattformen häufig darauf, dass Nutzer melden, ob ein Bild oder Video von künstlicher Intelligenz (KI) generiert wurde. Angesichts organisierter Desinformationskampagnen gilt dieser Ansatz als unrealistisch. Die Situation wird zusätzlich durch die plattformübergreifende Verbreitung von Inhalten verkompliziert. Im untersuchten Fall wurde das Video Berichten zufolge zuerst auf TikTok veröffentlicht und anschließend auf Facebook, Instagram und X geteilt, was die Moderation erschwert. Der Aufsichtsrat fordert daher eine grundlegende Überarbeitung der Moderation. Angesichts dieser Einschränkungen bittet der Aufsichtsrat Meta, seinen Ansatz zur KI-bezogenen Moderation gründlich zu überprüfen. Zu diesem Zweck werden verschiedene Wege geprüft, um die Transparenz und die Erkennung synthetischer Inhalte zu verbessern. Eine der Empfehlungen ist die breitere Anwendung von Standards zur Medienherkunft, wie beispielsweise dem C2PA-System (Content Credentials), das die Herkunft einer digitalen Datei identifiziert. Diese Technologie würde Internetnutzern eindeutig anzeigen, ob ein Bild oder Video von KI generiert oder verändert wurde. Der Rat fordert Meta außerdem auf, effektivere Erkennungswerkzeuge zu entwickeln und die Kennzeichnung KI-generierter Inhalte zu vereinheitlichen. Ziel ist es, diese Informationen breitflächig zugänglich zu machen, damit Nutzer irreführende Medien leichter erkennen können. Zudem wird die Schaffung eines separaten Community-Standards für KI-generierte Inhalte gefordert, insbesondere da eine solche Regelung eine bessere Regulierung von Deepfakes und eine schnellere Reaktion bei der Verbreitung irreführender Inhalte ermöglichen würde. Diese Empfehlungen erfolgen vor dem Hintergrund wachsender Spannungen im Zusammenhang mit Desinformation und der Rolle von Plattformen. Da KI-Tools immer leichter zugänglich werden, wird die Fähigkeit sozialer Netzwerke, Wahrheit von Falschheit zu unterscheiden, zu einem zentralen Thema für die Zuverlässigkeit von Online-Informationen.
Bitte Login einen Kommentar hinterlassen.
Möchten Sie Ihr Thema veröffentlichen?
Treten Sie einer globalen Community von Erstellern bei und monetarisieren Sie Ihre Inhalte ganz einfach. Beginnen Sie noch heute Ihre Reise zum passiven Einkommen mit Digbly!
Jetzt posten
Kommentare