تقنية التزييف العميق: انتقادات لمنصة ميتا بسبب قصورها في مكافحة المحتوى المُنشأ بواسطة الذكاء الاصطناعي
يُحدث الذكاء الاصطناعي تحولاً جذرياً في تدفق المعلومات على وسائل التواصل الاجتماعي، لدرجة أن الصور ومقاطع الفيديو المُنشأة اصطناعياً قادرة على محاكاة مواقف الحياة الواقعية بدقة مُقلقة.
في مواجهة هذا التطور، تحاول شركات الإنترنت العملاقة تكييف أنظمة الإشراف الخاصة بها. ولكن في حالة ميتا، لا تزال هذه الجهود تبدو بعيدة عن الإقناع.
في الواقع، أشار مجلس الإشراف في الشركة، المسؤول عن تقييم قرارات الإشراف على المحتوى، مؤخراً إلى العديد من أوجه القصور في إدارة التزييف العميق على فيسبوك وإنستغرام وثريدز. بحسب التقرير الإلكتروني المنشور على موقع https://www.oversightboard.com/news/board-to-address-ai-generated-content-in-israel-iran-conflict/" target="_blank" rel="noopener">الآليات الحالية غير كافية للحد من انتشار المحتوى المضلل الذي يُنتجه الذكاء الاصطناعي...
يُعتبر الكشف عن التزييف العميق محدودًا للغاية
بعد فحص مقاطع الفيديو، بما في ذلك مقطع فيديو مُنتج بالذكاء الاصطناعي يُظهر أضرارًا مزعومة لحقت بمبانٍ في إسرائيل، ترى المنظمة أن أساليب الكشف التي تستخدمها منصة ميتا "ليست قوية أو شاملة بما فيه الكفاية"..
فيما يتعلق بهذا الفيديو، الذي نُشر العام الماضي خلال نزاع بين إسرائيل وإيران، تركته المنصة منشورًا في البداية. قرر المجلس في نهاية المطاف التراجع عن هذا القرار وتنبيه ميتا إلى قصور استراتيجيتها الحالية. إحدى المشكلات التي تم تحديدها تتعلق بالاعتماد المفرط على الإبلاغ الذاتي من قِبل مُنشئي المحتوى. عمليًا، غالبًا ما تعتمد المنصات على المستخدمين للإبلاغ عما إذا كانت صورة أو مقطع فيديو مُنشأ بواسطة الذكاء الاصطناعي. يُعتبر هذا النهج غير واقعي في ظل حملات التضليل المنظمة. ويزداد الوضع تعقيدًا مع انتشار المحتوى عبر منصات متعددة، ففي الحالة المدروسة، نُشر الفيديو أولًا على تيك توك قبل مشاركته على فيسبوك وإنستغرام وX، مما يُصعّب عملية الإشراف. يدعو مجلس الرقابة إلى إصلاح شامل لآلية الإشراف. ونظرًا لهذه القيود، يطلب المجلس من ميتا مراجعة نهجها في الإشراف على المحتوى المُنشأ بواسطة الذكاء الاصطناعي بدقة. ولتحقيق هذه الغاية، يجري استكشاف عدة سبل لتحسين الشفافية وكشف المحتوى المُصنّع. ومن بين التوصيات التوسع في تطبيق معايير مصدر الوسائط، مثل نظام C2PA (بيانات اعتماد المحتوى)، المصمم لتحديد مصدر الملف الرقمي. من شأن هذا النوع من التكنولوجيا أن يُوضح لمستخدمي الإنترنت ما إذا كانت الصورة أو مقطع الفيديو مُنشأ أو مُعدّل بواسطة الذكاء الاصطناعي. كما يطلب المجلس من ميتا تطوير أدوات كشف أكثر فعالية وتعميم تصنيف المحتوى المُنشأ بواسطة الذكاء الاصطناعي. الهدف إذن هو إتاحة هذه المعلومات على نطاق واسع، ليسهل على المستخدمين تحديد الوسائط المضللة. كما يُطالب بإنشاء معيار مجتمعي منفصل مخصص للمحتوى المُنشأ بواسطة الذكاء الاصطناعي، لا سيما وأن مثل هذا المعيار سيُتيح تنظيمًا أفضل لتقنية التزييف العميق واستجابة أسرع عند انتشار المحتوى المضلل. وفي حين تأتي هذه التوصيات وسط توترات متزايدة بشأن المعلومات المضللة ودور المنصات، ومع ازدياد سهولة الوصول إلى أدوات الذكاء الاصطناعي، أصبحت قدرة الشبكات الاجتماعية على التمييز بين الحقيقة والزيف قضية رئيسية لموثوقية المعلومات على الإنترنت.
لو سمحت تسجيل الدخول لترك التعليق.
تريد نشر موضوعك
انضم إلى مجتمع عالمي من المبدعين، واستثمر المحتوى الخاص بك بسهولة. ابدأ رحلة الدخل السلبي مع Digbly اليوم!
انشرها الآن
تعليقات