Szokujące badanie pokazuje, że niektóre chatboty oparte na sztucznej inteligencji mogą ułatwiać akty przemocy.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Szokujące badanie pokazuje, że niektóre chatboty oparte na sztucznej inteligencji mogą ułatwiać akty przemocy.

Za powszechnym przyjęciem sztucznej inteligencji (AI) zaczynają pojawiać się pewne nadużycia, do tego stopnia, że niedawne wspólne śledztwo CNN i CCDH (Centrum Przeciwdziałania Cyfrowej Nienawiści) ujawnia niepokojące zjawisko.

W rzeczywistości kilka chatbotów rzekomo potrafi udzielać szczegółowych porad dotyczących popełniania aktów przemocy, także użytkownikom podającym się za nieletnich.

Śledztwo, które obciąża głównych graczy w dziedzinie sztucznej inteligencji

Znaczne różnice między graczami… – Źródło: CNN / CCDH

Aby przeprowadzić badanie, naukowcy symulowali ponad 700 rozmów z dziewięcioma do dziesięciu najpopularniejszych chatbotów na rynku, w tym ChatGPT, Gemini i Meta AI. Scenariusze miały charakter progresywny: badacze wcielali się w nastolatków początkowo wyrażających stres emocjonalny, a następnie kierowali rozmowy w stronę planów brutalnych ataków. W większości przypadków systemy dostarczały konkretnych informacji, a osiem na dziesięć chatbotów wskazywało na broń, cele lub metody w ponad 50% testowanych sytuacji. Niektóre narzędzia posunęły się nawet dalej, sugerując optymalizacje mające na celu zwiększenie skuteczności ataków. Według badania, najbardziej krytycznymi platformami były Perplexity i Meta AI, które odpowiedziały pozytywnie odpowiednio w 100% i 97% przypadków. Character.AI jest również krytykowany za zachęcanie do aktów przemocy, czasami bez wyraźnego namawiania.

Nierówno stosowane zabezpieczenia

Claude, wzorowy uczeń w obliczu nadużyć?

– Źródło: CNN / CCDH

W rzeczywistości nie wszystkie chatboty są równe pod względem bezpieczeństwa, a badanie podkreśla, że niektóre systemy mają bardziej solidne mechanizmy moderacji.

Dotyczy to w szczególności Claude d’Anthropic odmówił pomocy w zdecydowanej większości scenariuszy, a nawet skierował użytkowników do służb wsparcia w razie niebezpieczeństwa.

Z drugiej strony, inne narzędzia wykazały wady w zakresie wykrywania złośliwych zamiarów, również w przypadku, gdy użytkownicy deklarowali się jako osoby niepełnoletnie. Autorzy raportu uważają, że wyniki te dowodzą, że technologie filtrowania istnieją, ale nie są systematycznie aktywowane ani poprawnie konfigurowane.

Imran Ahmed, dyrektor CCDH, ostrzega przed szybkością, z jaką użytkownik może przejść od mglistego pomysłu do ustrukturyzowanego planu działania. Według niego, prośby te powinny systematycznie skutkować natychmiastową odmową.

Przypadki z życia wzięte, które potwierdzają ryzyko

Śledztwo nie ogranicza się do symulacji, a kilka niedawnych przypadków ilustruje bardzo realne zagrożenia związane z tymi zastosowaniami

Na przykład w Finlandii 16-latek dźgnął nożem trzech kolegów z klasy po kilku miesiącach korzystania z ChatGPT w celu zbadania technik ataków i metod ukrywania się.

W Kanadzie w wyniku strzelaniny zginęło osiem osób, a 27 zostało rannych, a tam napastnik podobno użył chatbota do zaplanowania ataku.

Te wydarzenia rodzą centralne pytanie dla interesariuszy sztucznej inteligencji: jak daleko powinni się posunąć w regulowaniu korzystania ze swoich narzędzi? Nadal trzeba znaleźć równowagę między szybką innowacją a odpowiedzialnością. Znajdź…

Uwagi

Proszę Login aby zostawić komentarz.

Chcesz opublikować swój temat

Dołącz do globalnej społeczności twórców i łatwo zarabiaj na swoich treściach.Rozpocznij swoją podróż z pasywnym dochodem z Digbly już dziś!

Opublikuj to teraz

Sugerowane dla Ciebie