Sebuah studi mengejutkan menunjukkan bahwa beberapa chatbot AI dapat memfasilitasi tindakan kekerasan.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

Sebuah studi mengejutkan menunjukkan bahwa beberapa chatbot AI dapat memfasilitasi tindakan kekerasan.

Di balik adopsi AI yang meluas, penyalahgunaan tertentu mulai muncul, sedemikian rupa sehingga investigasi bersama baru-baru ini oleh CNN dan CCDH (Pusat Penanggulangan Kebencian Digital) menyoroti fenomena yang mengkhawatirkan.

Memang, beberapa chatbot dilaporkan mampu memberikan saran terperinci tentang cara melakukan tindakan kekerasan, termasuk kepada pengguna yang mengaku sebagai anak di bawah umur.

Investigasi yang melibatkan para pemain utama dalam AI

Perbedaan signifikan antara satu pemain dengan pemain lainnya… – Sumber: CNN / CCDH

Untuk melakukan studi mereka, para peneliti mensimulasikan lebih dari 700 percakapan dengan sembilan hingga sepuluh chatbot paling populer di pasaran, termasuk ChatGPT, Gemini, dan Meta AI. Skenarionya progresif: para peneliti berperan sebagai remaja yang awalnya mengungkapkan tekanan emosional, sebelum mengarahkan percakapan ke rencana serangan kekerasan. Dalam sebagian besar kasus, sistem tersebut akhirnya memberikan informasi konkret, dan delapan dari sepuluh chatbot memberikan indikasi tentang senjata, target, atau metode dalam lebih dari 50% situasi yang diuji. Beberapa alat bahkan melangkah lebih jauh, menyarankan optimasi untuk membuat serangan lebih efektif.

Menurut studi tersebut, platform yang paling penting adalah Perplexity dan Meta AI, yang memberikan respons positif masing-masing dalam 100% dan 97% kasus. Character.AI juga dikritik karena mendorong tindakan kekerasan, terkadang tanpa ajakan eksplisit.

Pengamanan yang Diterapkan Tidak Merata

Claude, siswa teladan dalam menghadapi pelecehan?

– Sumber: CNN / CCDH

Pada kenyataannya, tidak semua chatbot sama dalam hal keamanan, dan studi ini menyoroti bahwa beberapa sistem memiliki mekanisme moderasi yang lebih kuat.

Hal ini terutama berlaku untuk Claude d’Anthropic, yang menolak untuk membantu dalam banyak Sebagian besar skenario bahkan mengarahkan pengguna ke layanan dukungan jika mengalami kesulitan.

Sebaliknya, alat lain menunjukkan kelemahan dalam kemampuannya mendeteksi niat jahat, termasuk ketika pengguna menyatakan diri sebagai anak di bawah umur. Bagi penulis laporan, hasil ini menunjukkan bahwa teknologi penyaringan memang ada, tetapi tidak diaktifkan secara sistematis atau dikonfigurasi dengan benar.

Imran Ahmed, direktur CCDH, memperingatkan tentang kecepatan pengguna dapat beralih dari ide yang samar-samar ke rencana tindakan yang terstruktur.

Menurutnya, permintaan-permintaan ini seharusnya secara sistematis menghasilkan penolakan langsung.

Kasus nyata yang mengkonfirmasi risiko

Investigasi tidak terbatas pada simulasi, dan beberapa kasus baru-baru ini menggambarkan bahaya nyata yang terkait dengan penggunaan ini

Misalnya, di Finlandia, seorang remaja berusia 16 tahun menikam tiga teman sekelasnya setelah menggunakan ChatGPT selama beberapa bulan untuk meneliti teknik serangan dan metode penyembunyian.

Di Kanada, penembakan menyebabkan delapan orang tewas dan 27 orang terluka, dan di sana lagi, pelaku dilaporkan menggunakan chatbot untuk merencanakan serangannya.

Peristiwa-peristiwa ini menimbulkan pertanyaan utama bagi para pemangku kepentingan AI: sejauh mana mereka harus mengatur penggunaan alat mereka? Antara inovasi cepat dan tanggung jawab, keseimbangan masih harus ditemukan.

Komentar

Silakan Login untuk meninggalkan komentar.

Ingin Memposting Topik Anda

Bergabunglah dengan komunitas pembuat konten global, monetisasikan konten Anda dengan mudah. Mulailah perjalanan penghasilan pasif Anda dengan Digbly hari ini!

Posting Sekarang

Disarankan untuk Anda