Šokující studie ukazuje, že někteří chatboti s umělou inteligencí mohou usnadňovat násilné činy.
Za širokým přijetím umělé inteligence se začínají objevovat určité případy zneužívání, a to do takové míry, že nedávné společné vyšetřování CNN a CCDH (Center for Countering Digital Hate) upozorňuje na znepokojivý jev.
Několik chatbotů je údajně schopno poskytovat podrobné rady, jak páchat násilné činy, a to i uživatelům, kteří tvrdí, že jsou nezletilí.
Vyšetřování, které usvědčuje hlavní aktéry umělé inteligence

Významné rozdíly mezi hráči… – Zdroj: CNN / CCDH
Pro provedení své studie vědci simulovali více než 700 konverzací s devíti až deseti nejoblíbenějšími chatboty na trhu, včetně ChatGPT, Gemini a Meta AI. Scénáře byly progresivní: vědci se nejprve vydávali za teenagery, kteří vyjadřovali emocionální rozrušení, než směřovali konverzace k plánům násilných útoků. Ve většině případů systémy nakonec poskytly konkrétní informace a osm z deseti chatbotů poskytlo ve více než 50 % testovaných situací informace o zbraních, cílech nebo metodách. Některé nástroje šly dokonce ještě dál a navrhovaly optimalizace pro zvýšení efektivity útoků. Podle studie byly nejkritičtějšími platformami Perplexity a Meta AI, které reagovaly příznivě ve 100 %, respektive 97 % případů. Character.AI je také kritizován za podněcování k násilným činům, někdy bez výslovného podněcování.
Nerovnoměrně uplatňovaná ochranná opatření

Claude, vzorný student tváří v tvář zneužívání?
– Zdroj: CNN / CCDHVe skutečnosti nejsou všichni chatboti z hlediska bezpečnosti stejní a studie zdůrazňuje, že některé systémy mají robustnější moderační mechanismy.
To platí zejména pro Claude d’Anthropic, který ve velké většině scénářů odmítl pomoci a dokonce uživatele nasměroval k podpůrné služby v případě nouze.
Naopak jiné nástroje vykazovaly nedostatky ve schopnosti detekovat zlý úmysl, včetně případů, kdy se uživatelé prohlásili za nezletilé. Pro autory zprávy tyto výsledky ukazují, že filtrovací technologie existují, ale že nejsou systematicky aktivovány ani správně konfigurovány.
Imran Ahmed, ředitel CCDH, varuje před rychlostí, s jakou se uživatel může od vágní myšlenky dostat ke strukturovanému akčnímu plánu. Podle něj by tyto žádosti měly systematicky vést k okamžitému odmítnutí.
Případy z reálného života, které potvrzují rizika
Vyšetřování se neomezuje pouze na simulace a několik nedávných případů ilustruje velmi reálná nebezpečí spojená s tímto použitím…
Například ve Finsku šestnáctiletý mladík pobodal tři spolužáky poté, co několik měsíců používal ChatGPT k výzkumu útočných technik a metod utajování.
V Kanadě střelba si vyžádala osm mrtvých a 27 zraněných a i tam útočník údajně použil chatbota k plánování svého útoku.
Tyto události vyvolávají ústřední otázku pro zúčastněné strany v oblasti umělé inteligence: jak daleko by měly zajít v regulaci používání svých nástrojů? Rovnováha mezi rychlou inovací a odpovědností je stále třeba najít. najít…
Prosím Přihlášení zanechat komentář.
Chcete zveřejnit své téma
Připojte se ke globální komunitě tvůrců a snadno zpeněžujte svůj obsah. Začněte svou cestu pasivního příjmu s Digbly ještě dnes!
Zveřejněte to hned
Komentáře