Deepfakes: Meta ถูกวิพากษ์วิจารณ์ถึงข้อบกพร่องในการต่อสู้กับเนื้อหาที่สร้างโดย AI
Mar 11
Wed, 11 Mar 2026 at 11:22 AM 0

Deepfakes: Meta ถูกวิพากษ์วิจารณ์ถึงข้อบกพร่องในการต่อสู้กับเนื้อหาที่สร้างโดย AI

ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงการไหลเวียนของข้อมูลบนโซเชียลมีเดียอย่างลึกซึ้ง จนถึงขั้นที่ภาพและวิดีโอที่สร้างขึ้นโดยปัญญาประดิษฐ์สามารถเลียนแบบสถานการณ์ในชีวิตจริงได้อย่างแม่นยำจนน่าตกใจ

เมื่อเผชิญกับการเปลี่ยนแปลงนี้ บริษัทยักษ์ใหญ่บนเว็บจึงพยายามปรับระบบการกลั่นกรองเนื้อหาของตน แต่ในกรณีของ Meta ความพยายามเหล่านี้ดูเหมือนจะยังห่างไกลจากความน่าเชื่อถือ

ที่จริงแล้ว คณะกรรมการกำกับดูแลของบริษัท ซึ่งรับผิดชอบในการประเมินการตัดสินใจเกี่ยวกับการกลั่นกรองเนื้อหา เพิ่งชี้ให้เห็นถึงข้อบกพร่องหลายประการในการจัดการ deepfake บน Facebook, Instagram และ Threads

จากรายงานออนไลน์ ระบุว่า กลไกในปัจจุบันไม่เพียงพอที่จะจำกัดการแพร่กระจายของเนื้อหาที่ทำให้เข้าใจผิด ซึ่งสร้างขึ้นโดย AI…

การตรวจจับ deepfake ถือว่ามีข้อจำกัดมากเกินไป

หลังจากตรวจสอบวิดีโอ รวมถึงวิดีโอที่สร้างโดย AI ซึ่งแสดงภาพความเสียหายของอาคารในอิสราเอล องค์กรเชื่อว่า วิธีการตรวจจับที่ Meta ใช้ “ไม่แข็งแกร่งหรือครอบคลุมเพียงพอ”.

เกี่ยวกับวิดีโอนี้ ซึ่งเผยแพร่เมื่อปีที่แล้วในช่วงความขัดแย้งระหว่างอิสราเอลและอิหร่าน ในตอนแรกแพลตฟอร์มได้ปล่อยวิดีโอนี้ไว้บนออนไลน์ ในที่สุดคณะกรรมการได้ตัดสินใจที่จะยกเลิกการตัดสินใจนี้และแจ้งเตือน Meta ถึงข้อจำกัดของกลยุทธ์ปัจจุบัน ปัญหาหนึ่งที่ระบุได้คือการพึ่งพาการรายงานตนเองของผู้สร้างเนื้อหามากเกินไป

ในทางปฏิบัติ แพลตฟอร์มต่างๆ มักพึ่งพาผู้ใช้ในการรายงานว่าภาพหรือวิดีโอถูกสร้างขึ้นโดยปัญญาประดิษฐ์หรือไม่ วิธีการนี้ถือว่าไม่สมจริงเมื่อเผชิญกับแคมเปญการเผยแพร่ข้อมูลเท็จอย่างเป็นระบบ สถานการณ์ยิ่งซับซ้อนขึ้นเนื่องจากการเผยแพร่เนื้อหาในหลายแพลตฟอร์ม ดังเช่นในกรณีที่ศึกษา วิดีโอดังกล่าวถูกเผยแพร่ครั้งแรกบน TikTok ก่อนที่จะถูกแชร์ต่อบน Facebook, Instagram และ X ทำให้การตรวจสอบเนื้อหาทำได้ยากขึ้น คณะกรรมการกำกับดูแลเรียกร้องให้มีการปรับปรุงระบบการตรวจสอบเนื้อหา ด้วยข้อจำกัดเหล่านี้ คณะกรรมการกำกับดูแลจึงขอให้ Meta ทบทวนวิธีการตรวจสอบเนื้อหาที่เกี่ยวข้องกับ AI อย่างละเอียดถี่ถ้วน เพื่อบรรลุเป้าหมายนี้ กำลังมีการสำรวจแนวทางต่างๆ เพื่อปรับปรุงความโปร่งใสและการตรวจจับเนื้อหาที่สร้างขึ้นโดย AI หนึ่งในข้อเสนอแนะคือการใช้งานมาตรฐานการระบุแหล่งที่มาของสื่ออย่างกว้างขวางมากขึ้น เช่น ระบบ C2PA (Content Credentials) ซึ่งออกแบบมาเพื่อระบุที่มาของไฟล์ดิจิทัล เทคโนโลยีประเภทนี้จะบ่งชี้ให้ผู้ใช้อินเทอร์เน็ตทราบได้อย่างชัดเจนว่าภาพหรือวิดีโอถูกสร้างหรือดัดแปลงโดย AI หรือไม่ สภาฯ ยังขอให้ Meta พัฒนาเครื่องมือตรวจจับที่มีประสิทธิภาพมากขึ้นและขยายการติดป้ายกำกับเนื้อหาที่สร้างโดย AI ให้ครอบคลุมมากขึ้น เป้าหมายคือการทำให้ข้อมูลนี้ปรากฏให้เห็นในวงกว้าง เพื่อให้ผู้ใช้สามารถระบุสื่อที่บิดเบือนได้ง่ายขึ้น นอกจากนี้ยังมีการเรียกร้องให้สร้างมาตรฐานชุมชนแยกต่างหากสำหรับเนื้อหาที่สร้างโดย AI โดยเฉพาะอย่างยิ่งเนื่องจากกฎดังกล่าวจะช่วยให้สามารถควบคุม deepfake ได้ดีขึ้นและตอบสนองได้เร็วขึ้นเมื่อมีเนื้อหาที่บิดเบือนแพร่กระจาย ในขณะที่ข้อเสนอแนะเหล่านี้เกิดขึ้นท่ามกลางความตึงเครียดที่เพิ่มขึ้นเกี่ยวกับข้อมูลเท็จและบทบาทของแพลตฟอร์ม เนื่องจากเครื่องมือ AI เข้าถึงได้ง่ายขึ้น ความสามารถของเครือข่ายสังคมในการแยกแยะความจริงจากความเท็จจึงกลายเป็นปัญหาสำคัญสำหรับความน่าเชื่อถือของข้อมูลออนไลน์

ความคิดเห็น

โปรด เข้าสู่ระบบ เพื่อแสดงความคิดเห็น

ต้องการโพสต์หัวข้อของคุณ

เข้าร่วมชุมชนผู้สร้างระดับโลก สร้างรายได้จากเนื้อหาของคุณได้อย่างง่ายดาย เริ่มต้นการเดินทางรายได้แบบพาสซีฟของคุณด้วย Digbly วันนี้!

โพสต์เลย

แนะนำสำหรับคุณ