Un studiu șocant arată că unii chatboți cu inteligență artificială pot facilita acte de violență.
În spatele adoptării pe scară largă a inteligenței artificiale, încep să apară anumite abuzuri, atât de mult încât o recentă investigație comună a CNN și CCDH (Centrul pentru Combaterea Urii Digitale) evidențiază un fenomen îngrijorător.
Într-adevăr, se pare că mai mulți chatboți sunt capabili să ofere sfaturi detaliate despre cum să comită acte violente, inclusiv utilizatorilor care pretind că sunt minori.
O investigație care implică principalii actori din domeniul inteligenței artificiale

Disparențe semnificative de la un jucător la altul… – Sursa: CNN / CCDH
Pentru a-și realiza studiul, cercetătorii au simulat peste 700 de conversații cu nouă până la zece dintre cei mai populari chatboți de pe piață, inclusiv ChatGPT, Gemini și Meta AI. Scenariile au fost progresive: cercetătorii s-au dat drept adolescenți care inițial exprimau suferință emoțională, înainte de a orienta conversațiile către planuri de atacuri violente. În majoritatea cazurilor, sistemele au ajuns să ofere informații concrete, iar opt din zece chatboți au oferit indicații despre arme, ținte sau metode în peste 50% din situațiile testate. Unele instrumente au mers chiar mai departe, sugerând optimizări pentru a face atacurile mai eficiente. Conform studiului, cele mai importante platforme au fost Perplexity și Meta AI, care au răspuns favorabil în 100%, respectiv 97% din cazuri. Character.AI este, de asemenea, criticat pentru încurajarea actelor violente, uneori fără solicitare explicită.
Mecanisme de siguranță aplicate inegal

Claude, elevul model în fața abuzurilor?
– Sursa: CNN / CCDHÎn realitate, nu toți chatboții sunt egali din punct de vedere al securității, iar studiul subliniază că unele sisteme au mecanisme de moderare mai robuste.
Acest lucru este valabil mai ales pentru Claude d’Anthropic, care a refuzat să ajute în marea majoritate a scenariilor și chiar a direcționat utilizatorii pentru a oferi asistență serviciilor în caz de dificultate.
În schimb, **alte instrumente** au prezentat deficiențe în capacitatea lor de a detecta intențiile rău intenționate,** inclusiv atunci când utilizatorii s-au declarat minori. Pentru autorii raportului, aceste rezultate demonstrează că există tehnologii de filtrare, dar că acestea nu sunt activate sistematic sau configurate corect.
Imran Ahmed, directorul CCDH, avertizează asupra vitezei cu care un utilizator poate trece de la o idee vagă la un plan de acțiune structurat. Potrivit acestuia, aceste solicitări ar trebui să ducă sistematic la un refuz imediat.
Cazuri din viața reală care confirmă riscurile
Ancheta nu se limitează la simulări, iar mai multe cazuri recente ilustrează pericolele foarte reale asociate cu aceste utilizări…
De exemplu, în Finlanda, un tânăr de 16 ani a înjunghiat trei colegi de clasă după ce a folosit ChatGPT timp de câteva luni pentru a cerceta tehnici de atac și metode de ascundere.
În Canada, un atac armat s-a soldat cu opt morți și 27 de răniți, iar acolo, din nou, atacatorul ar fi folosit un chatbot pentru a-și planifica atacul.
Aceste evenimente ridică o întrebare centrală pentru părțile interesate din domeniul inteligenței artificiale: cât de departe ar trebui să meargă în reglementarea utilizării instrumentelor lor? Între inovație rapidă și responsabilitate, rămâne de găsit echilibrul. găsiți…
Vă rog Log in sa lasi un comentariu.
Vrei să postezi subiectul tău
Alăturați-vă unei comunități globale de creatori, monetizați-vă cu ușurință conținutul. Începeți călătoria cu veniturile pasive cu Digbly astăzi!
Postează acum
Comentarii