Deepfakes: Meta krytykowana za niedociągnięcia w walce z treściami generowanymi przez sztuczną inteligencję
Mar 11
Wed, 11 Mar 2026 at 11:20 AM 0

Deepfakes: Meta krytykowana za niedociągnięcia w walce z treściami generowanymi przez sztuczną inteligencję

Sztuczna inteligencja radykalnie zmienia przepływ informacji w mediach społecznościowych, do tego stopnia, że sztucznie tworzone obrazy i filmy mogą imitować rzeczywiste sytuacje z niepokojącą dokładnością.

W obliczu tej ewolucji internetowi giganci starają się dostosować swoje systemy moderacji. Jednak w przypadku Meta te wysiłki wciąż wydają się mało przekonujące.

Rada Nadzorcza firmy, odpowiedzialna za ocenę decyzji dotyczących moderacji treści, właśnie wskazała kilka niedociągnięć w zarządzaniu deepfake'ami na Facebooku, Instagramie i w Threads. Według raportu online, obecne mechanizmy są niewystarczające, aby ograniczyć rozprzestrzenianie się wprowadzających w błąd treści generowanych przez sztuczną inteligencję…

Wykrywanie deepfake'ów uznane za zbyt ograniczone

Po przeanalizowaniu filmów, w tym jednego filmu wygenerowanego przez sztuczną inteligencję, pokazującego rzekome uszkodzenia budynków w Izraelu, organizacja uważa, że metody wykrywania stosowane przez Meta nie są wystarczająco solidne ani kompleksowe.

Jeśli chodzi o ten film, który został opublikowany w zeszłym roku podczas konfliktu między Izraelem a Iranem, początkowo został on udostępniony online przez platformę. Rada ostatecznie zdecydowała się cofnąć tę decyzję i ostrzec Meta przed ograniczeniami jej obecnej strategii. Jednym ze zidentyfikowanych problemów jest nadmierne poleganie na samozgłaszaniu przez twórców treści. W praktyce platformy często polegają na użytkownikach, którzy zgłaszają, czy obraz lub wideo zostało wygenerowane przez sztuczną inteligencję. Takie podejście jest uważane za nierealne w obliczu zorganizowanych kampanii dezinformacyjnych. Sytuację dodatkowo komplikuje wieloplatformowy obieg treści, ponieważ w badanym przypadku film został rzekomo najpierw opublikowany na TikToku, a następnie udostępniony na Facebooku, Instagramie i X, co utrudnia moderację. Rada Nadzorcza wzywa do gruntownego przeglądu moderacji. Biorąc pod uwagę te ograniczenia, Rada Nadzorcza zwraca się do Meta o gruntowne przejrzenie podejścia do moderacji związanej ze sztuczną inteligencją. W tym celu badane są różne możliwości poprawy przejrzystości i wykrywania treści syntetycznych. Wśród rekomendacji znajduje się szersze wdrożenie standardów pochodzenia mediów, takich jak system C2PA (Content Credentials), zaprojektowany w celu identyfikacji pochodzenia pliku cyfrowego. Tego typu technologia jasno wskazywałaby użytkownikom internetu, czy obraz lub wideo został wygenerowany lub zmodyfikowany przez sztuczną inteligencję. Rada zwraca się również do Meta o opracowanie skuteczniejszych narzędzi wykrywania i uogólnienie etykietowania treści generowanych przez sztuczną inteligencję. Celem jest zatem uwidocznienie tych informacji na szeroką skalę, aby użytkownicy mogli łatwiej identyfikować wprowadzające w błąd media. Postuluje się również stworzenie odrębnego standardu społecznościowego poświęconego treściom generowanym przez sztuczną inteligencję, zwłaszcza że taka regulacja pozwoliłaby na lepszą regulację deepfake'ów i szybszą reakcję w przypadku pojawienia się treści wprowadzających w błąd. Chociaż zalecenia te pojawiają się w obliczu rosnących napięć wokół dezinformacji i roli platform, wraz ze wzrostem dostępności narzędzi sztucznej inteligencji, zdolność serwisów społecznościowych do odróżniania prawdy od fałszu staje się kluczowym problemem dla wiarygodności informacji online.

Uwagi

Proszę Login aby zostawić komentarz.

Chcesz opublikować swój temat

Dołącz do globalnej społeczności twórców i łatwo zarabiaj na swoich treściach.Rozpocznij swoją podróż z pasywnym dochodem z Digbly już dziś!

Opublikuj to teraz

Sugerowane dla Ciebie