Egy megdöbbentő tanulmány szerint egyes mesterséges intelligencia által fejlesztett chatbotok erőszakos cselekményeket is elősegíthetnek.
A mesterséges intelligencia széles körű elterjedése mögött bizonyos visszaélések kezdenek felszínre kerülni, olyannyira, hogy a CNN és a CCDH (Digitális Gyűlölet Elleni Központ) által nemrégiben lefolytatott közös vizsgálat egy aggasztó jelenségre világít rá.
Valójában számos chatbot képes részletes tanácsokat adni az erőszakos cselekmények elkövetésével kapcsolatban, beleértve a magukat kiskorúnak valló felhasználókat is.
Egy vizsgálat, amely a mesterséges intelligencia főbb szereplőit vonja maga után

Jelentős eltérések játékosok között… – Forrás: CNN / CCDH
Tanulmányuk elvégzéséhez a kutatók több mint 700 beszélgetést szimuláltak a piacon kapható kilenc-tíz legnépszerűbb chatbottal, köztük a ChatGPT-vel, a Geminivel és a Meta AI-val. A forgatókönyvek progresszívek voltak: a kutatók tinédzsereknek adták ki magukat, akik kezdetben érzelmi szorongást fejeztek ki, mielőtt a beszélgetéseket erőszakos támadások tervei felé terelték volna. Az esetek többségében a rendszerek végül konkrét információkat szolgáltattak, és tízből nyolc chatbot a tesztelt helyzetek több mint 50%-ában fegyverekről, célpontokról vagy módszerekről adott jelzéseket. Egyes eszközök még tovább mentek, optimalizálásokat javasoltak a támadások hatékonyabbá tétele érdekében. A tanulmány szerint a legkritikusabb platformok a Perplexity és a Meta AI voltak, amelyek az esetek 100%-ában, illetve 97%-ában kedvezően reagáltak. A Character.AI-t azért is kritizálják, hogy erőszakos cselekményekre ösztönöz, néha kifejezett felhívás nélkül.
Egyenlőtlenül alkalmazott biztosítékok

Claude, a mintakép a visszaélésekkel szemben?
– Forrás: CNN / CCDHA valóságban nem minden chatbot egyforma a biztonság szempontjából, és a tanulmány kiemeli, hogy egyes rendszerek robusztusabb moderálási mechanizmusokkal rendelkeznek.
Ez különösen igaz a Claude d’Anthropic robotra, amely a forgatókönyvek túlnyomó többségében megtagadta a segítséget, sőt vészhelyzet esetén a felhasználókat támogató szolgáltatásokhoz irányította.
Ezzel szemben más eszközök hibákat mutattak a rosszindulatú szándék észlelésében, beleértve azokat az eseteket is, amikor a felhasználók kiskorúnak vallották magukat. A jelentés szerzői számára ezek az eredmények azt mutatják, hogy léteznek szűrőtechnológiák, de ezek nincsenek szisztematikusan aktiválva vagy megfelelően konfigurálva.
Imran Ahmed, a CCDH igazgatója arra figyelmeztet, hogy milyen gyorsan juthat el egy felhasználó egy homályos ötlettől egy strukturált cselekvési tervig. Szerinte ezeknek a kéréseknek szisztematikusan azonnali elutasításhoz kell vezetniük.
Valós esetek, amelyek megerősítik a kockázatokat
A nyomozás nem korlátozódik szimulációkra, és számos friss eset illusztrálja az ilyen felhasználásokkal járó nagyon is valós veszélyeket…
Például Finnországban egy 16 éves fiú megkéselt három osztálytársát, miután több hónapon át a ChatGPT-t használta támadási technikák és elrejtési módszerek kutatására.
Kanadában egy lövöldözésben nyolcan meghaltak és 27-en megsebesültek, és ott is a támadó állítólag egy chatbotot használt a támadás megtervezéséhez.
Ezek az események központi kérdést vetnek fel a mesterséges intelligencia érdekeltjei számára: meddig menjenek el az eszközeik használatának szabályozásában? A gyors innováció és a felelősségvállalás között még meg kell találni az egyensúlyt. megtalálni…
Kérem Bejelentkezés megjegyzést hagyni.
Szeretné közzétenni a témáját
Csatlakozz az alkotók globális közösségéhez, és egyszerűen szerezz bevételt a tartalmaiddal. Kezdje meg passzív bevételi utazását a Digbly segítségével még ma!
Tegye közzé most
Megjegyzések