หากตกอยู่ในมือของอาชญากรไซเบอร์หรือรัฐเผด็จการ ปัญญาประดิษฐ์อย่าง ChatGPT อาจกลายเป็นภัยคุกคามที่แท้จริงต่อการไม่เปิดเผยตัวตนและความเป็นส่วนตัวของเราในโลกออนไลน์
Mar 10
Tue, 10 Mar 2026 at 06:26 AM 0

หากตกอยู่ในมือของอาชญากรไซเบอร์หรือรัฐเผด็จการ ปัญญาประดิษฐ์อย่าง ChatGPT อาจกลายเป็นภัยคุกคามที่แท้จริงต่อการไม่เปิดเผยตัวตนและความเป็นส่วนตัวของเราในโลกออนไลน์

การศึกษาโดยนักวิจัยสองคนที่เชี่ยวชาญด้านปัญญาประดิษฐ์ได้เปิดเผยว่าแบบจำลองภาษาขนาดใหญ่สามารถเชื่อมโยงบัญชีโซเชียลมีเดียที่ไม่ระบุตัวตนกับบุคคลจริงได้อย่างรวดเร็ว

นี่คือจุดจบของการไม่ระบุตัวตนบนโลกออนไลน์หรือไม่ ด้วยปัญญาประดิษฐ์ที่ทำหน้าที่เสมือนนักสืบเอกชนชั้นยอดที่สามารถเปิดเผยตัวตนของผู้ใช้อินเทอร์เน็ตที่เก็บความลับได้มากที่สุด? แนวคิดนี้อาจดูเกินจริง แต่งานของนักวิจัยทั้งสองคนนี้ดูเหมือนจะพิสูจน์ได้ว่ามันเป็นความจริง ไม่ใช่จินตนาการ การศึกษาที่รายงานโดย The Guardian เปิดเผยว่าอาชญากรไซเบอร์กำลังใช้ปัญญาประดิษฐ์มากขึ้นเรื่อยๆ เพื่อระบุตัวตนบัญชีโซเชียลมีเดียที่ไม่ระบุตัวตนได้ง่ายขึ้น

ด้วยโมเดลภาษาขนาดใหญ่ (เช่น ChatGPT, Claude, Gemini เป็นต้น) ทำให้สามารถเชื่อมโยงบัญชีกับบุคคลจริงได้ โดยเฉพาะอย่างยิ่งจากข้อมูลที่พวกเขาแบ่งปัน สิ่งนี้ทำให้เกิดการโจมตีที่ซับซ้อนและสร้างผลกำไรได้ ดังที่ Simon Lermen และ Daniel Paleka สองนักวิจัยที่อยู่เบื้องหลังการศึกษาอธิบาย พวกเขาเรียกร้องให้มีการพิจารณาใหม่ "อย่างพื้นฐาน" เกี่ยวกับสิ่งที่เราถือว่าเป็นข้อมูลส่วนตัวบนโลกออนไลน์

AI ที่ปรับแต่งมาเพื่อค้นหาข้อมูลบนเว็บ ออกแบบมาเพื่ออ้างอิงข้อมูล

ในการค้นพบนี้ พวกเขาได้รวมบัญชีนิรนามสองบัญชีเข้ากับ AI ก่อน โดยให้ AI ดึงข้อมูลให้ได้มากที่สุดเท่าที่จะเป็นไปได้ หนึ่งในสองบัญชี (@anon_user42) พูดถึงปัญหาของเขาที่โรงเรียนและนิสัยชอบพาสุนัขชื่อ Biscuit ไปเดินเล่นในสวนสาธารณะชื่อ "Dolores" ด้วยข้อมูลนี้ AI จึงสามารถสแกนเว็บเพื่อระบุตัวตนของบุคคลที่อยู่เบื้องหลังบัญชีได้อย่างแม่นยำสูง

นักวิจัยเชื่อว่าวิธีการนี้สามารถถูกแฮกเกอร์ใช้ประโยชน์ได้ง่าย รวมถึงรัฐบาลที่ต้องการปิดปากผู้เห็นต่างซึ่งมักจะรณรงค์อย่างไม่เปิดเผยตัวตนบนโซเชียลมีเดีย โมเดลภาษาขนาดใหญ่มีศักยภาพในการวิเคราะห์ที่รวดเร็วและมีประสิทธิภาพสูง—อาจจะมากเกินไป—ซึ่งนำไปสู่การอ้างอิงข้อมูลข้ามกันที่อาจทำให้การไม่เปิดเผยตัวตนถูกเปิดเผยและก่อให้เกิดปัญหาด้านความปลอดภัยอย่างร้ายแรง แฮกเกอร์จึงสามารถปลอมตัวเป็นคนอื่นและล่อลวงพวกเขาเข้าสู่ปฏิบัติการฟิชชิ่งโดยใช้รายละเอียดที่ AI รวบรวมได้ กระบวนการที่มีค่าใช้จ่ายสูงไม่จำเป็นอีกต่อไปเพื่อให้บรรลุเป้าหมายนี้: AI และการเชื่อมต่ออินเทอร์เน็ตก็เพียงพอแล้ว ในขณะที่การศึกษาแสดงให้เห็นว่าปัญญาประดิษฐ์มีประสิทธิภาพ ปีเตอร์ เบนท์ลีย์ ศาสตราจารย์ด้านวิทยาศาสตร์สารสนเทศที่ UCL ไม่เห็นด้วย ในการให้สัมภาษณ์กับสื่ออังกฤษ เขาประณามแนวโน้มที่อาจนำไปสู่ "การกล่าวหาผู้คนในสิ่งที่พวกเขาไม่ได้ทำ" นอกจากนี้ ยังมีความเสี่ยงที่แบบจำลองภาษาขนาดใหญ่อาจพึ่งพาข้อมูลสาธารณะที่นอกเหนือจากโซเชียลมีเดีย เช่น รายงานสถิติ บันทึกทางการแพทย์ และบันทึกการรับผู้ป่วยเข้าโรงพยาบาล

การศึกษานี้แสดงให้เห็นเป็นหลักว่า ในโลกออนไลน์ โดยเฉพาะบนโซเชียลมีเดีย วิธีที่ผู้ใช้โต้ตอบกันนั้น อาจทำให้ผู้สังเกตการณ์รู้ถึงตัวตนที่แท้จริงของพวกเขาได้ง่าย ดังนั้นจึงจำเป็นอย่างยิ่งที่จะต้องระมัดระวังในสิ่งที่คุณทำในโลกออนไลน์ พร้อมทั้งดำเนินการหลายขั้นตอนเพื่อรักษาความเป็นส่วนตัวอย่างสมบูรณ์ เช่น การใช้อีเมลหรือหมายเลขโทรศัพท์ที่แยกต่างหากจากส่วนอื่นๆ ของชีวิต นักวิจัยทั้งสองเรียกร้องให้แพลตฟอร์มโซเชียลมีเดียจำกัดการเข้าถึงข้อมูลที่ AI สามารถเข้าถึงได้ โดยเฉพาะอย่างยิ่งเพื่อป้องกัน "การดึงข้อมูล" ซึ่งเป็นคุณสมบัติที่แบบจำลองภาษาใช้กันอย่างแพร่หลายเพื่อรวบรวมข้อมูลให้ได้มากที่สุดสำหรับการฝึกฝน

ความคิดเห็น

โปรด เข้าสู่ระบบ เพื่อแสดงความคิดเห็น

ต้องการโพสต์หัวข้อของคุณ

เข้าร่วมชุมชนผู้สร้างระดับโลก สร้างรายได้จากเนื้อหาของคุณได้อย่างง่ายดาย เริ่มต้นการเดินทางรายได้แบบพาสซีฟของคุณด้วย Digbly วันนี้!

โพสต์เลย

แนะนำสำหรับคุณ