Deepfakes: Meta wegen seiner Mängel im Kampf gegen KI-generierte Inhalte kritisiert
Mar 11
Wed, 11 Mar 2026 at 11:16 AM 0

Deepfakes: Meta wegen seiner Mängel im Kampf gegen KI-generierte Inhalte kritisiert

Künstliche Intelligenz verändert den Informationsfluss in sozialen Medien grundlegend, sodass künstlich erzeugte Bilder und Videos reale Situationen mit beunruhigender Genauigkeit imitieren können. Angesichts dieser Entwicklung versuchen die großen Internetkonzerne, ihre Moderationssysteme anzupassen. Im Fall von Meta scheinen diese Bemühungen jedoch noch nicht überzeugend genug. Tatsächlich hat der Aufsichtsrat des Unternehmens, der für die Bewertung von Entscheidungen zur Inhaltsmoderation zuständig ist, kürzlich mehrere Mängel im Umgang mit Deepfakes auf Facebook, Instagram und Threads festgestellt. Laut dem Online-Bericht sind die aktuellen Mechanismen unzureichend, um die Verbreitung irreführender, KI-generierter Inhalte einzuschränken…

Erkennung von Deepfakes als zu eingeschränkt

Nach der Prüfung von Videos, darunter ein KI-generiertes Video, das angebliche Gebäudeschäden in Israel zeigt, ist die Organisation der Ansicht, dass die von Meta verwendeten Erkennungsmethoden „nicht robust oder umfassend genug“ sind..

Dieses Video, das letztes Jahr während eines Konflikts zwischen Israel und dem Iran veröffentlicht wurde, wurde zunächst von der Plattform online gelassen. Der Vorstand beschloss schließlich, diese Entscheidung zu revidieren und Meta auf die Grenzen seiner aktuellen Strategie hinzuweisen. Eines der identifizierten Probleme betrifft die übermäßige Abhängigkeit von Selbstmeldungen der Urheber. In der Praxis verlassen sich Plattformen häufig darauf, dass Nutzer melden, ob ein Bild oder Video von künstlicher Intelligenz (KI) generiert wurde. Angesichts organisierter Desinformationskampagnen gilt dieser Ansatz als unrealistisch. Die Situation wird zusätzlich durch die plattformübergreifende Verbreitung von Inhalten verkompliziert. Im untersuchten Fall wurde das Video Berichten zufolge zuerst auf TikTok veröffentlicht und anschließend auf Facebook, Instagram und X geteilt, was die Moderation erschwert. Der Aufsichtsrat fordert daher eine grundlegende Überarbeitung der Moderation. Angesichts dieser Einschränkungen bittet der Aufsichtsrat Meta, seinen Ansatz zur KI-bezogenen Moderation gründlich zu überprüfen. Zu diesem Zweck werden verschiedene Wege geprüft, um die Transparenz und die Erkennung synthetischer Inhalte zu verbessern. Eine der Empfehlungen ist die breitere Anwendung von Standards zur Medienherkunft, wie beispielsweise dem C2PA-System (Content Credentials), das die Herkunft einer digitalen Datei identifiziert. Diese Technologie würde Internetnutzern eindeutig anzeigen, ob ein Bild oder Video von KI generiert oder verändert wurde. Der Rat fordert Meta außerdem auf, effektivere Erkennungswerkzeuge zu entwickeln und die Kennzeichnung KI-generierter Inhalte zu vereinheitlichen. Ziel ist es, diese Informationen breitflächig zugänglich zu machen, damit Nutzer irreführende Medien leichter erkennen können. Zudem wird die Schaffung eines separaten Community-Standards für KI-generierte Inhalte gefordert, insbesondere da eine solche Regelung eine bessere Regulierung von Deepfakes und eine schnellere Reaktion bei der Verbreitung irreführender Inhalte ermöglichen würde. Diese Empfehlungen erfolgen vor dem Hintergrund wachsender Spannungen im Zusammenhang mit Desinformation und der Rolle von Plattformen. Da KI-Tools immer leichter zugänglich werden, wird die Fähigkeit sozialer Netzwerke, Wahrheit von Falschheit zu unterscheiden, zu einem zentralen Thema für die Zuverlässigkeit von Online-Informationen.

Kommentare

Bitte Login einen Kommentar hinterlassen.

Möchten Sie Ihr Thema veröffentlichen?

Treten Sie einer globalen Community von Erstellern bei und monetarisieren Sie Ihre Inhalte ganz einfach. Beginnen Sie noch heute Ihre Reise zum passiven Einkommen mit Digbly!

Jetzt posten

Für Sie empfohlen