Deepfakes: Meta kritizována za nedostatky v boji proti obsahu generovanému umělou inteligencí
Mar 11
Wed, 11 Mar 2026 at 11:16 AM 0

Deepfakes: Meta kritizována za nedostatky v boji proti obsahu generovanému umělou inteligencí

Umělá inteligence zásadně transformuje tok informací na sociálních sítích, a to do té míry, že uměle vytvořené obrázky a videa mohou napodobovat reálné situace sznepokojivou přesností.

Tváří vtvář tomuto vývoji se weboví giganti snaží přizpůsobit své moderační systémy. Vpřípadě Mety se však tyto snahy stále zdají být nepřesvědčivé.

Dozorčí rada společnosti, která je zodpovědná za hodnocení rozhodnutí omoderování obsahu, právě poukázala na několik nedostatků ve správě deepfaků na Facebooku, Instagramu avláknech. Podle online zprávy současné mechanismy nejsou dostatečné k omezení šíření zavádějícího obsahu generovaného umělou inteligencí…

Detekce deepfaků je považována za příliš omezenou

Po prozkoumání videí, včetně jednoho videa generovaného umělou inteligencí, které ukazuje údajné poškození budov v Izraeli, se organizace domnívá, že detekční metody používané společností Meta „nejsou dostatečně robustní ani komplexní“..

Pokud jde o toto video, které bylo zveřejněno loni během konfliktu mezi Izraelem a Íránem, platforma jej původně ponechala online. Rada se nakonec rozhodla toto rozhodnutí zrušit a upozornit společnost Meta na omezení její současné strategie. Jeden z identifikovaných problémů se týká nadměrného spoléhání se na vlastní hlášení ze strany tvůrců obsahu. V praxi platformy často závisí na tom, že uživatelé hlásí, zda obrázek nebo video bylo vygenerováno umělou inteligencí. Tento přístup je považován za nereálný tváří v tvář organizovaným dezinformačním kampaním. Situaci dále komplikuje šíření obsahu na více platformách, protože v zkoumaném případě bylo video údajně nejprve zveřejněno na TikToku a poté sdíleno na Facebooku, Instagramu a X, což moderování ztěžuje. Rada pro dohled vyzývá k přepracování moderování. Vzhledem k těmto omezením Rada pro dohled žádá společnost Meta, aby důkladně přezkoumala svůj přístup k moderování souvisejícímu s umělou inteligencí. Za tímto účelem se zkoumá několik možností ke zlepšení transparentnosti a detekci syntetického obsahu. Mezi doporučeními je širší zavedení standardů pro původ médií, jako je systém C2PA (Content Credentials), který je určen k identifikaci původu digitálního souboru. Tento typ technologie by uživatelům internetu jasně naznačil, zda obrázek nebo video bylo vygenerováno nebo upraveno umělou inteligencí. Rada rovněž žádá společnost Meta, aby vyvinula účinnější detekční nástroje a zobecnila označování obsahu generovaného umělou inteligencí. Cílem je pak zviditelnit tyto informace ve velkém měřítku, aby uživatelé mohli snáze identifikovat zavádějící média. Žádá se také o vytvoření samostatného komunitního standardu věnovaného obsahu generovanému umělou inteligencí, zejména proto, že by takové pravidlo umožnilo lepší regulaci deepfaků a rychlejší reakci na šíření zavádějícího obsahu. Tato doporučení sice přicházejí uprostřed rostoucího napětí kolem dezinformací a role platforem, ale s tím, jak se nástroje umělé inteligence stávají dostupnějšími, se schopnost sociálních sítí rozlišovat pravdu od lži stává hlavním problémem pro spolehlivost online informací.

Komentáře

Prosím Přihlášení zanechat komentář.

Chcete zveřejnit své téma

Připojte se ke globální komunitě tvůrců a snadno zpeněžujte svůj obsah. Začněte svou cestu pasivního příjmu s Digbly ještě dnes!

Zveřejněte to hned

Navrhováno pro vás