Deepfakes: Meta bekritiseerd vanwege tekortkomingen in de strijd tegen door AI gegenereerde content
AI verandert de informatiestroom op sociale media ingrijpend, tot het punt dat kunstmatig gecreëerde afbeeldingen en video's situaties uit het echte leven met verontrustende nauwkeurigheid kunnen nabootsen.
Geconfronteerd met deze ontwikkeling proberen webgiganten hun moderatiesystemen aan te passen. Maar in het geval van Meta lijken deze inspanningen nog lang niet overtuigend.
Sterker nog, de Oversight Board van het bedrijf, verantwoordelijk voor het evalueren van beslissingen over contentmoderatie, heeft onlangs gewezen op verschillende tekortkomingen in het beheer van deepfakes op Facebook, Instagram en Threads.
Volgens het online rapport zijn de huidige mechanismen onvoldoende om de verspreiding van misleidende content, gegenereerd door AI, te beperken. De detectie van deepfakes wordt als te beperkt beschouwd. Na het onderzoeken van video's, waaronder een door AI gegenereerde video die vermeende schade aan gebouwen in Israël toont, is de organisatie van mening dat de detectiemethoden van Meta "niet robuust of uitgebreid genoeg" zijn. Wat betreft deze video, die vorig jaar werd uitgebracht tijdens een conflict tussen Israël en Iran, werd deze aanvankelijk door het platform online gelaten. De Raad heeft uiteindelijk besloten deze beslissing terug te draaien en Meta te wijzen op de beperkingen van de huidige strategie. Een van de geconstateerde problemen betreft de overmatige afhankelijkheid van zelfrapportage door contentmakers. In de praktijk zijn platforms vaak afhankelijk van gebruikers die aangeven of een afbeelding of video door kunstmatige intelligentie is gegenereerd. Deze aanpak wordt als onrealistisch beschouwd in het licht van georganiseerde desinformatiecampagnes. De situatie wordt verder gecompliceerd door de verspreiding van content over meerdere platforms, zoals in het onderzochte geval, waar de video naar verluidt eerst op TikTok werd gepubliceerd voordat deze werd gedeeld op Facebook, Instagram en X, waardoor moderatie moeilijker wordt. De Oversight Board roept op tot een herziening van de moderatie. Gezien deze beperkingen verzoekt de Oversight Board Meta om haar aanpak van AI-gerelateerde moderatie grondig te herzien. Daartoe worden verschillende mogelijkheden onderzocht om de transparantie en de detectie van synthetische content te verbeteren. Een van de aanbevelingen is de bredere toepassing van mediaprovenance-standaarden, zoals het C2PA-systeem (Content Credentials), dat is ontworpen om de oorsprong van een digitaal bestand te identificeren. Dit type technologie zou internetgebruikers duidelijk laten zien of een afbeelding of video door AI is gegenereerd of bewerkt. De Raad verzoekt Meta ook om effectievere detectietools te ontwikkelen en de labeling van door AI gegenereerde content te generaliseren. Het doel is vervolgens om deze informatie op grote schaal zichtbaar te maken, zodat gebruikers misleidende media gemakkelijker kunnen herkennen. Er wordt ook gevraagd om een aparte communitystandaard voor door AI gegenereerde content, met name omdat een dergelijke regel een betere regulering van deepfakes mogelijk zou maken en een snellere reactie wanneer misleidende content circuleert. Hoewel deze aanbevelingen komen te midden van groeiende spanningen rond desinformatie en de rol van platforms, wordt het vermogen van sociale netwerken om waarheid van onwaarheid te onderscheiden een steeds groter probleem voor de betrouwbaarheid van online informatie, naarmate AI-tools toegankelijker worden.
Alsjeblieft Login om een reactie achter te laten.
Wilt u uw onderwerp plaatsen
Sluit u aan bij een wereldwijde gemeenschap van makers en genereer eenvoudig inkomsten met uw inhoud.Begin vandaag nog met uw passieve inkomensreis met Digbly!
Plaats het nu
Opmerkingen