Deepfakes: Meta bị chỉ trích vì những thiếu sót trong cuộc chiến chống lại nội dung do AI tạo ra.
Trí tuệ nhân tạo (AI) đang làm thay đổi sâu sắc dòng chảy thông tin trên mạng xã hội, đến mức hình ảnh và video được tạo ra bằng trí tuệ nhân tạo có thể bắt chước các tình huống đời thực với độ chính xác đáng kinh ngạc.
Trước sự phát triển này, các ông lớn trong ngành công nghiệp web đang cố gắng điều chỉnh hệ thống kiểm duyệt của mình. Nhưng trong trường hợp của Meta, những nỗ lực này dường như vẫn chưa đủ thuyết phục.
Thực tế, Ban Giám sát của công ty, chịu trách nhiệm đánh giá các quyết định kiểm duyệt nội dung, vừa chỉ ra một số thiếu sót trong việc quản lý deepfake trên Facebook, Instagram và Threads. Theo báo cáo trực tuyến online, các cơ chế hiện tại không đủ để hạn chế sự lan truyền nội dung gây hiểu nhầm do AI tạo ra…
Khả năng phát hiện được đánh giá là quá hạn chế đối với deepfake
Sau khi xem xét các video, bao gồm một video do AI tạo ra cho thấy thiệt hại được cho là đối với các tòa nhà ở Israel, tổ chức này tin rằng các phương pháp phát hiện được Meta sử dụng là "không đủ mạnh mẽ hoặc toàn diện.".
Về video này, được phát hành năm ngoái trong cuộc xung đột giữa Israel và Iran, ban đầu nó đã được nền tảng này để trực tuyến. Cuối cùng, Hội đồng đã quyết định đảo ngược quyết định này và cảnh báo Meta về những hạn chế của chiến lược hiện tại của họ. Một trong những vấn đề được xác định liên quan đến việc quá phụ thuộc vào việc tự báo cáo của người tạo nội dung. Trên thực tế, các nền tảng thường dựa vào người dùng để báo cáo xem hình ảnh hoặc video có được tạo ra bởi trí tuệ nhân tạo hay không. Cách tiếp cận này được coi là không thực tế khi đối mặt với các chiến dịch thông tin sai lệch có tổ chức. Tình hình càng trở nên phức tạp hơn do sự lan truyền nội dung trên nhiều nền tảng, như trong trường hợp được nghiên cứu, video được cho là lần đầu tiên được đăng tải trên TikTok trước khi được chia sẻ trên Facebook, Instagram và X, khiến việc kiểm duyệt trở nên khó khăn hơn. Hội đồng Giám sát kêu gọi cải tổ quy trình kiểm duyệt. Với những hạn chế này, Hội đồng Giám sát yêu cầu Meta xem xét kỹ lưỡng cách tiếp cận của mình đối với việc kiểm duyệt liên quan đến AI. Để đạt được mục tiêu này, một số hướng đi đang được khám phá để cải thiện tính minh bạch và khả năng phát hiện nội dung tổng hợp. Trong số các khuyến nghị là việc triển khai rộng rãi hơn các tiêu chuẩn nguồn gốc phương tiện truyền thông, chẳng hạn như hệ thống C2PA (Content Credentials), được thiết kế để xác định nguồn gốc của một tệp kỹ thuật số. Loại công nghệ này sẽ chỉ rõ cho người dùng internet biết liệu hình ảnh hoặc video có được tạo ra hoặc chỉnh sửa bởi AI hay không. Hội đồng cũng yêu cầu Meta phát triển các công cụ phát hiện hiệu quả hơn và khái quát hóa việc gắn nhãn nội dung do AI tạo ra. Mục tiêu sau đó là làm cho thông tin này hiển thị trên quy mô lớn, để người dùng có thể dễ dàng xác định các phương tiện truyền thông gây hiểu nhầm. Việc tạo ra một tiêu chuẩn cộng đồng riêng biệt dành riêng cho nội dung do AI tạo ra cũng được yêu cầu, đặc biệt là vì quy định như vậy sẽ cho phép kiểm soát tốt hơn các video giả mạo (deepfake) và phản ứng nhanh hơn khi nội dung gây hiểu nhầm lan truyền. Trong khi những khuyến nghị này được đưa ra trong bối cảnh căng thẳng ngày càng gia tăng xung quanh thông tin sai lệch và vai trò của các nền tảng, khi các công cụ AI trở nên dễ tiếp cận hơn, khả năng phân biệt sự thật và giả dối của các mạng xã hội đang trở thành một vấn đề lớn đối với độ tin cậy của thông tin trực tuyến.
Vui lòng Đăng nhập để lại một bình luận.
Muốn đăng chủ đề của bạn
Tham gia cộng đồng người sáng tạo toàn cầu, kiếm tiền từ nội dung của bạn một cách dễ dàng. Bắt đầu hành trình thu nhập thụ động của bạn với Digbly ngay hôm nay!
Đăng nó ngay bây giờ
Bình luận