Deepfakes: A Metát kritizálták a mesterséges intelligencia által generált tartalmak elleni küzdelemben mutatott hiányosságai miatt
Mar 11
Wed, 11 Mar 2026 at 11:18 AM 0

Deepfakes: A Metát kritizálták a mesterséges intelligencia által generált tartalmak elleni küzdelemben mutatott hiányosságai miatt

A mesterséges intelligencia gyökeresen átalakítja az információáramlást a közösségi médiában, odáig menően, hogy a mesterségesen létrehozott képek és videók zavaró pontossággal képesek utánozni a valós élethelyzeteket.

Ezzel a fejlődéssel szembesülve a webóriások megpróbálják átalakítani moderálási rendszereiket. De a Meta esetében ezek az erőfeszítések még mindig korántsem meggyőzőek.

Valójában a vállalat Felügyelőbizottsága, amely a tartalommoderálási döntések értékeléséért felelős, a közelmúltban rámutatott számos hiányosságra a deepfake-ek kezelésében a Facebookon, az Instagramon és a Threads-en. Az online jelentés szerint a jelenlegi mechanizmusok nem elegendőek a mesterséges intelligencia által generált félrevezető tartalmak terjedésének korlátozására

A deepfake-ek észlelése túl korlátozottnak tekinthető

Videók, köztük egy mesterséges intelligencia által generált videó, amely állítólagos épületkárokat mutat Izraelben, vizsgálata után a szervezet úgy véli, hogy a Meta által használt észlelési módszerek "nem elég robusztusak vagy átfogóak"..

Ezzel a videóval kapcsolatban, amelyet tavaly tettek közzé egy Izrael és Irán közötti konfliktus során, a platform eredetileg online hagyta. A Testület végül úgy döntött, hogy megváltoztatja ezt a döntést, és figyelmezteti a Metát jelenlegi stratégiájának korlátaira. Az egyik azonosított probléma a tartalomkészítők önbevalláson való túlzott támaszkodása. A gyakorlatban a platformok gyakran a felhasználóktól függenek, hogy jelentik-e, hogy egy képet vagy videót mesterséges intelligencia generált-e. Ez a megközelítés irreálisnak tekinthető a szervezett dezinformációs kampányok fényében. A helyzetet tovább bonyolítja a tartalom több platformon történő terjesztése, mivel a vizsgált esetben a videót állítólag először a TikTokon tették közzé, majd megosztották a Facebookon, Instagramon és X-en, ami megnehezíti a moderálást. A Felügyelőbizottság a moderálás felülvizsgálatát szorgalmazza. Ezen korlátozások miatt a Felügyelőbizottság felkéri a Metát, hogy alaposan vizsgálja felül a mesterséges intelligenciával kapcsolatos moderálással kapcsolatos megközelítését. Ennek érdekében számos lehetőséget vizsgálnak az átláthatóság javítására és a szintetikus tartalmak felismerésére. Az ajánlások között szerepel a média eredetére vonatkozó szabványok szélesebb körű bevezetése, például a C2PA (Content Credentials) rendszer, amelynek célja a digitális fájlok eredetének azonosítása. Ez a fajta technológia egyértelműen jelezné az internetfelhasználók számára, hogy egy képet vagy videót mesterséges intelligencia generált vagy módosított-e. A Tanács azt is kéri a Metától, hogy fejlesszen ki hatékonyabb észlelési eszközöket, és általánosítsa a mesterséges intelligencia által generált tartalmak címkézését. A cél az, hogy ezt az információt nagymértékben láthatóvá tegyék, hogy a felhasználók könnyebben azonosíthassák a félrevezető médiát. Kérik egy különálló közösségi szabvány létrehozását is, amely a mesterséges intelligencia által generált tartalmakra vonatkozik, különösen mivel egy ilyen szabály lehetővé tenné a deepfake-ek jobb szabályozását és a gyorsabb reagálást, ha félrevezető tartalom terjed. Bár ezek az ajánlások a dezinformációval és a platformok szerepével kapcsolatos növekvő feszültségek közepette születnek, az MI-eszközök egyre elérhetőbbé válásával a közösségi hálózatok azon képessége, hogy megkülönböztessék az igazságot a hazugságtól, egyre nagyobb problémát jelent az online információk megbízhatósága szempontjából.

Megjegyzések

Kérem Bejelentkezés megjegyzést hagyni.

Szeretné közzétenni a témáját

Csatlakozz az alkotók globális közösségéhez, és egyszerűen szerezz bevételt a tartalmaiddal. Kezdje meg passzív bevételi utazását a Digbly segítségével még ma!

Tegye közzé most

Önnek ajánlott