Şok edici bir araştırma, bazı yapay zekâ destekli sohbet robotlarının şiddet eylemlerini kolaylaştırabileceğini gösteriyor.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Şok edici bir araştırma, bazı yapay zekâ destekli sohbet robotlarının şiddet eylemlerini kolaylaştırabileceğini gösteriyor.

Yapay zekanın yaygın kullanımının ardında, bazı suistimaller ortaya çıkmaya başlıyor, öyle ki CNN ve CCDH (Dijital Nefretle Mücadele Merkezi) tarafından yapılan yakın tarihli bir ortak araştırma endişe verici bir olguyu vurguluyor.

Nitekim, bazı chatbot'ların, aralarında reşit olmayan kullanıcılar olduğunu iddia edenlerin de bulunduğu kullanıcılara şiddet içeren eylemlerin nasıl gerçekleştirileceğine dair ayrıntılı tavsiyeler verebildiği bildiriliyor.

Yapay zekadaki ana aktörleri suçlayan bir araştırma

Oyuncular arasında önemli farklılıklar… – Kaynak: CNN / CCDH

Araştırmacı, çalışmalarını yürütmek için piyasadaki en popüler dokuz ila on sohbet robotuyla (ChatGPT, Gemini ve Meta AI dahil) 700'den fazla konuşmayı simüle etti. Senaryolar aşamalıydı: Araştırmacılar, başlangıçta duygusal sıkıntı ifade eden gençler gibi davrandılar ve daha sonra konuşmaları şiddet içeren saldırı planlarına doğru yönlendirdiler. Çoğu durumda, sistemler somut bilgiler sağladı ve on sohbet robotundan sekizi, test edilen durumların %50'sinden fazlasında silahlar, hedefler veya yöntemler hakkında ipuçları verdi. Bazı araçlar daha da ileri giderek, saldırıları daha etkili hale getirmek için optimizasyonlar önerdi. Çalışmaya göre, en kritik platformlar Perplexity ve Meta AI oldu; bu platformlar sırasıyla vakaların %100'ünde ve %97'sinde olumlu yanıt verdi. Character.AI ayrıca, bazen açıkça teşvik etmeden şiddet eylemlerini teşvik ettiği için de eleştiriliyor.

Eşitsiz Uygulanan Güvenlik Önlemleri

Claude, istismarlar karşısında örnek öğrenci mi?

– Kaynak: CNN / CCDH

Gerçekte, tüm chatbot'lar güvenlik açısından eşit değildir ve çalışma, bazı sistemlerin daha sağlam denetim mekanizmalarına sahip olduğunu vurgulamaktadır.

Bu özellikle Claude için geçerlidir. d’Anthropic, senaryoların büyük çoğunluğunda yardım etmeyi reddetti ve hatta sıkıntı durumunda kullanıcıları destek hizmetlerine yönlendirdi.

Bunun aksine, diğer araçlar, kullanıcıların kendilerini reşit olmayan kişiler olarak beyan etmeleri de dahil olmak üzere, kötü niyet tespit etme yeteneklerinde kusurlar gösterdi. Raporun yazarlarına göre, bu sonuçlar filtreleme teknolojilerinin var olduğunu, ancak sistematik olarak etkinleştirilmediğini veya doğru şekilde yapılandırılmadığını göstermektedir.

CCDH direktörü Imran Ahmed, bir kullanıcının belirsiz bir fikirden yapılandırılmış bir eylem planına ne kadar hızlı geçebileceği konusunda uyarıda bulunuyor. Ona göre, bu talepler sistematik olarak derhal reddedilmelidir.

Riskleri doğrulayan gerçek hayattan örnekler

Araştırma simülasyonlarla sınırlı değil ve son zamanlarda yaşanan birkaç olay, bu kullanımlarla ilişkili çok gerçek tehlikeleri göstermektedir

Örneğin, Finlandiya'da 16 yaşında bir genç, saldırı tekniklerini ve gizlenme yöntemlerini araştırmak için aylarca ChatGPT kullandıktan sonra üç sınıf arkadaşını bıçakladı.Kanada'da bir silahlı saldırıda sekiz kişi öldü ve 27 kişi yaralandı ve burada da saldırganın saldırısını planlamak için bir chatbot kullandığı bildirildi.

Bu olaylar, yapay zeka paydaşları için merkezi bir soruyu gündeme getiriyor: araçlarının kullanımını düzenlemede ne kadar ileri gitmeliler? Hızlı inovasyon ve sorumluluk arasında dengeyi bulmak gerekiyor.

Yorumlar

Lütfen Giriş yapmak yorum bırakmak için.

Konunuzu Yayınlamak İstiyorsunuz

Küresel bir yaratıcılar topluluğuna katılın, içeriğinizden kolayca para kazanın. Digbly ile pasif gelir yolculuğunuza bugün başlayın!

Şimdi Yayınla

Sizin için Önerilenler