Trong tay tội phạm mạng hoặc một quốc gia độc tài, trí tuệ nhân tạo, như ChatGPT, có thể trở thành mối đe dọa thực sự đối với tính ẩn danh trực tuyến và quyền riêng tư của chúng ta.
Mar 10
Tue, 10 Mar 2026 at 06:28 AM 0

Trong tay tội phạm mạng hoặc một quốc gia độc tài, trí tuệ nhân tạo, như ChatGPT, có thể trở thành mối đe dọa thực sự đối với tính ẩn danh trực tuyến và quyền riêng tư của chúng ta.

Một nghiên cứu của hai nhà nghiên cứu chuyên về trí tuệ nhân tạo đã tiết lộ rằng các mô hình ngôn ngữ lớn có thể nhanh chóng liên kết một tài khoản mạng xã hội ẩn danh với một người thật.

Liệu đây có phải là dấu chấm hết cho tính ẩn danh trực tuyến nhờ AI hoạt động như một thám tử tư siêu hạng, có khả năng vạch trần ngay cả những người dùng internet bí mật nhất? Ý tưởng này có vẻ xa vời, nhưng công trình nghiên cứu của hai nhà nghiên cứu này dường như chứng minh rằng đó là hiện thực, chứ không phải là ảo tưởng. Một nghiên cứu được đăng tải trên The Guardian tiết lộ rằng tội phạm mạng ngày càng sử dụng trí tuệ nhân tạo để dễ dàng xác định các tài khoản mạng xã hội ẩn danh hơn. Nhờ các mô hình ngôn ngữ lớn (như ChatGPT, Claude, Gemini, v.v.), có thể liên kết một tài khoản với một người thật, đặc biệt là dựa trên thông tin mà họ chia sẻ. Điều này cho phép các cuộc tấn công tinh vi và sinh lợi, giải thích Simon Lermen và Daniel Paleka, hai nhà nghiên cứu đứng sau nghiên cứu này, những người kêu gọi xem xét lại "cơ bản" những gì chúng ta coi là thông tin riêng tư trực tuyến.

Trí tuệ nhân tạo được thiết kế để rà soát web, nhằm mục đích đối chiếu dữ liệu

Để thực hiện khám phá này, trước tiên họ đã tích hợp hai tài khoản ẩn danh vào một trí tuệ nhân tạo, yêu cầu nó thu thập càng nhiều thông tin càng tốt. Một trong hai tài khoản (@anon_user42) đã nói về những khó khăn của mình ở trường và thói quen dắt chó Biscuit đi dạo trong công viên có tên "Dolores". Nhờ thông tin này, AI sau đó đã có thể quét web để cung cấp danh tính của người đứng sau tài khoản với độ tin cậy cao.

Các nhà nghiên cứu tin rằng phương pháp này có thể dễ dàng bị tin tặc khai thác, nhưng cũng có thể bị các chính phủ lợi dụng để bịt miệng những người bất đồng chính kiến, những người thường vận động ẩn danh trên mạng xã hội. Các mô hình ngôn ngữ lớn thực sự có khả năng phân tích nhanh chóng và hiệu quả cao—có lẽ quá hiệu quả—dẫn đến việc đối chiếu thông tin có thể làm tổn hại tính ẩn danh và gây ra các vấn đề an ninh nghiêm trọng. Do đó, tin tặc có thể dễ dàng mạo danh người khác và dụ họ vào một hoạt động lừa đảo bằng cách sử dụng các chi tiết do AI thu thập được. Các quy trình tốn kém không còn cần thiết để đạt được mục tiêu này: chỉ cần một AI và kết nối internet là đủ. Mặc dù nghiên cứu cho thấy trí tuệ nhân tạo có hiệu quả, nhưng Peter Bentley, giáo sư khoa học thông tin tại UCL, lại không đồng ý. Trong một cuộc phỏng vấn với truyền thông Anh, ông lên án một xu hướng có thể dẫn đến "việc mọi người bị buộc tội về những điều họ không làm". Cũng có nguy cơ các mô hình ngôn ngữ lớn có thể dựa vào dữ liệu công khai vượt xa mạng xã hội. Các báo cáo thống kê, hồ sơ bệnh viện và hồ sơ nhập viện có thể được sử dụng.

Nghiên cứu chủ yếu cho thấy rằng trên mạng, và đặc biệt là trên mạng xã hội, cách người dùng tương tác có thể dễ dàng dẫn người quan sát đến danh tính thật của họ. Do đó, điều cần thiết là luôn cẩn thận với những gì bạn làm trực tuyến, đồng thời thực hiện nhiều bước để duy trì sự ẩn danh hoàn toàn—ví dụ, bằng cách sử dụng địa chỉ email hoặc số điện thoại tách biệt với phần còn lại của cuộc sống. Hai nhà nghiên cứu kêu gọi các nền tảng mạng xã hội hạn chế quyền truy cập vào dữ liệu mà AI có thể truy cập, đặc biệt là để ngăn chặn "thu thập dữ liệu", một tính năng được các mô hình ngôn ngữ sử dụng rộng rãi để thu thập càng nhiều thông tin càng tốt cho việc huấn luyện.

Bình luận

Vui lòng Đăng nhập để lại một bình luận.

Muốn đăng chủ đề của bạn

Tham gia cộng đồng người sáng tạo toàn cầu, kiếm tiền từ nội dung của bạn một cách dễ dàng. Bắt đầu hành trình thu nhập thụ động của bạn với Digbly ngay hôm nay!

Đăng nó ngay bây giờ

Đề xuất cho bạn