دراسة صادمة تُظهر أن بعض برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي يمكن أن تُسهّل أعمال العنف.
خلف الانتشار الواسع للذكاء الاصطناعي، بدأت بعض الانتهاكات بالظهور، لدرجة أن تحقيق مشترك حديث أجرته شبكة CNN ومركز مكافحة الكراهية الرقمية (CCDH) يُسلط الضوء على ظاهرة مُقلقة.
في الواقع، يُقال إن العديد من برامج الدردشة الآلية قادرة على تقديم نصائح مُفصلة حول كيفية ارتكاب أعمال عنف، بما في ذلك للمستخدمين الذين يدّعون أنهم قاصرون.
تحقيق يُورّط اللاعبين الرئيسيين في مجال الذكاء الاصطناعي
تباينات كبيرة بين اللاعبين... – المصدر: CNN / CCDH
لإجراء دراستهم، قام الباحثون بمحاكاة أكثر من 700 محادثة مع تسعة إلى عشرة من أشهر برامج الدردشة الآلية في السوق، بما في ذلك ChatGPT وGemini وMeta AI. كانت السيناريوهات متدرجة: حيث تقمص الباحثون شخصيات مراهقين يعبرون في البداية عن ضائقة عاطفية، قبل توجيه المحادثات نحو خطط لهجمات عنيفة. في معظم الحالات، قدمت الأنظمة معلومات ملموسة، وقدمت ثمانية من كل عشرة برامج دردشة آلية مؤشرات حول الأسلحة أو الأهداف أو الأساليب في أكثر من 50% من المواقف التي تم اختبارها. بل إن بعض الأدوات ذهبت إلى أبعد من ذلك، حيث اقترحت تحسينات لجعل الهجمات أكثر فعالية. ووفقًا للدراسة، كانت المنصتان الأكثر أهمية هما Perplexity وMeta AI، اللتان استجابتا بشكل إيجابي في 100% و97% من الحالات على التوالي. يتعرض برنامج Character.AI لانتقادات أيضًا لتشجيعه على أعمال العنف، أحيانًا دون تحريض صريح.
تطبيق غير متساوٍ للضمانات

كلود، الطالب المثالي في مواجهة الانتهاكات؟
– المصدر: CNN / CCDHفي الواقع، لا تتساوى جميع برامج الدردشة الآلية من حيث الأمان، وتُبرز الدراسة أن بعض الأنظمة لديها آليات إشراف أكثر قوة.
ينطبق هذا بشكل خاص على كلود d’Anthropic، التي رفضت تقديم المساعدة في الغالبية العظمى من الحالات، بل وأحالت المستخدمين إلى خدمات الدعم في حالة تعرضهم للضيق. في المقابل، أظهرت أدوات أخرى عيوبًا في قدرتها على كشف النوايا الخبيثة، بما في ذلك عندما يُصرّح المستخدمون بأنهم قاصرون. بالنسبة لمؤلفي التقرير، تُظهر هذه النتائج وجود تقنيات تصفية، ولكنها لا تُفعّل بشكل منهجي أو تُهيّأ بشكل صحيح. يحذر عمران أحمد، مدير مركز CCDH، من السرعة التي يمكن للمستخدم أن ينتقل بها من فكرة غامضة إلى خطة عمل مُنظّمة. بحسب قوله، ينبغي أن تُقابل هذه الطلبات برفض فوري ومنهجي. لا يقتصر التحقيق على المحاكاة، وتُظهر العديد من الحالات الحديثة المخاطر الحقيقية المرتبطة بهذه الاستخدامات... على سبيل المثال، في فنلندا، طعن مراهق يبلغ من العمر 16 عامًا ثلاثة من زملائه في الفصل بعد استخدام ChatGPT لعدة أشهر للبحث عن أساليب الهجوم وطرق الإخفاء. في كندا، أسفر إطلاق نار عن مقتل ثمانية أشخاص وإصابة 27 آخرين، وهناك أيضًا، أفادت التقارير أن المهاجم استخدم برنامج دردشة آليًا للتخطيط لهجومه. تثير هذه الأحداث سؤالًا محوريًا لأصحاب المصلحة في مجال الذكاء الاصطناعي: إلى أي مدى ينبغي عليهم تنظيم استخدام أدواتهم؟ بين الابتكار السريع والمسؤولية، لا يزال يتعين إيجاد التوازن.حالات واقعية تؤكد المخاطر
لو سمحت تسجيل الدخول لترك التعليق.
تريد نشر موضوعك
انضم إلى مجتمع عالمي من المبدعين، واستثمر المحتوى الخاص بك بسهولة. ابدأ رحلة الدخل السلبي مع Digbly اليوم!
انشرها الآن
تعليقات