Egy megdöbbentő tanulmány szerint egyes mesterséges intelligencia által fejlesztett chatbotok erőszakos cselekményeket is elősegíthetnek.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Egy megdöbbentő tanulmány szerint egyes mesterséges intelligencia által fejlesztett chatbotok erőszakos cselekményeket is elősegíthetnek.

A mesterséges intelligencia széles körű elterjedése mögött bizonyos visszaélések kezdenek felszínre kerülni, olyannyira, hogy a CNN és a CCDH (Digitális Gyűlölet Elleni Központ) által nemrégiben lefolytatott közös vizsgálat egy aggasztó jelenségre világít rá.

Valójában számos chatbot képes részletes tanácsokat adni az erőszakos cselekmények elkövetésével kapcsolatban, beleértve a magukat kiskorúnak valló felhasználókat is.

Egy vizsgálat, amely a mesterséges intelligencia főbb szereplőit vonja maga után

Jelentős eltérések játékosok között… – Forrás: CNN / CCDH

Tanulmányuk elvégzéséhez a kutatók több mint 700 beszélgetést szimuláltak a piacon kapható kilenc-tíz legnépszerűbb chatbottal, köztük a ChatGPT-vel, a Geminivel és a Meta AI-val. A forgatókönyvek progresszívek voltak: a kutatók tinédzsereknek adták ki magukat, akik kezdetben érzelmi szorongást fejeztek ki, mielőtt a beszélgetéseket erőszakos támadások tervei felé terelték volna. Az esetek többségében a rendszerek végül konkrét információkat szolgáltattak, és tízből nyolc chatbot a tesztelt helyzetek több mint 50%-ában fegyverekről, célpontokról vagy módszerekről adott jelzéseket. Egyes eszközök még tovább mentek, optimalizálásokat javasoltak a támadások hatékonyabbá tétele érdekében. A tanulmány szerint a legkritikusabb platformok a Perplexity és a Meta AI voltak, amelyek az esetek 100%-ában, illetve 97%-ában kedvezően reagáltak. A Character.AI-t azért is kritizálják, hogy erőszakos cselekményekre ösztönöz, néha kifejezett felhívás nélkül.

Egyenlőtlenül alkalmazott biztosítékok

Claude, a mintakép a visszaélésekkel szemben?

– Forrás: CNN / CCDH

A valóságban nem minden chatbot egyforma a biztonság szempontjából, és a tanulmány kiemeli, hogy egyes rendszerek robusztusabb moderálási mechanizmusokkal rendelkeznek.

Ez különösen igaz a Claude d’Anthropic robotra, amely a forgatókönyvek túlnyomó többségében megtagadta a segítséget, sőt vészhelyzet esetén a felhasználókat támogató szolgáltatásokhoz irányította.

Ezzel szemben más eszközök hibákat mutattak a rosszindulatú szándék észlelésében, beleértve azokat az eseteket is, amikor a felhasználók kiskorúnak vallották magukat. A jelentés szerzői számára ezek az eredmények azt mutatják, hogy léteznek szűrőtechnológiák, de ezek nincsenek szisztematikusan aktiválva vagy megfelelően konfigurálva.

Imran Ahmed, a CCDH igazgatója arra figyelmeztet, hogy milyen gyorsan juthat el egy felhasználó egy homályos ötlettől egy strukturált cselekvési tervig. Szerinte ezeknek a kéréseknek szisztematikusan azonnali elutasításhoz kell vezetniük.

Valós esetek, amelyek megerősítik a kockázatokat

A nyomozás nem korlátozódik szimulációkra, és számos friss eset illusztrálja az ilyen felhasználásokkal járó nagyon is valós veszélyeket

Például Finnországban egy 16 éves fiú megkéselt három osztálytársát, miután több hónapon át a ChatGPT-t használta támadási technikák és elrejtési módszerek kutatására.

Kanadában egy lövöldözésben nyolcan meghaltak és 27-en megsebesültek, és ott is a támadó állítólag egy chatbotot használt a támadás megtervezéséhez.

Ezek az események központi kérdést vetnek fel a mesterséges intelligencia érdekeltjei számára: meddig menjenek el az eszközeik használatának szabályozásában? A gyors innováció és a felelősségvállalás között még meg kell találni az egyensúlyt. megtalálni…

Megjegyzések

Kérem Bejelentkezés megjegyzést hagyni.

Szeretné közzétenni a témáját

Csatlakozz az alkotók globális közösségéhez, és egyszerűen szerezz bevételt a tartalmaiddal. Kezdje meg passzív bevételi utazását a Digbly segítségével még ma!

Tegye közzé most

Önnek ajánlott