Theo một báo cáo, internet đang bị tràn ngập bởi hàng tỷ lượt truy cập từ các bot trí tuệ nhân tạo.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

Theo một báo cáo, internet đang bị tràn ngập bởi hàng tỷ lượt truy cập từ các bot trí tuệ nhân tạo.

Trí tuệ nhân tạo (AI) tiếp tục chuyển đổi web, nhưng không chỉ về mặt ứng dụng hữu hình. Thực tế, một sự chuyển đổi khác, kín đáo hơn, đang diễn ra đằng sau hậu trường: đó là lưu lượng truy cập được tạo ra bởi các tác nhân tự động.

Đằng sau những lời hứa về tự động hóa và hiệu suất, các hệ thống này đã và đang định nghĩa lại cách các trang web được thu thập thông tin, lập chỉ mục và sử dụng.

Một báo cáo gần đây được DataDome công bố đã nêu bật một thực tế vẫn còn bị đánh giá thấp: các tác nhân AI không còn chỉ đơn thuần hỗ trợ người dùng mà đang trở thành những người chơi chính thức trên web… Các số liệu được trình bày đã nói lên tất cả. Trong hai tháng đầu năm 2026, gần 7,9 tỷ yêu cầu xuất phát từ các tác nhân AI đã được ghi nhận. Mức tăng 5% so với cuối năm 2025 xác nhận sự tăng tốc liên tục. Trong một số trường hợp, lưu lượng truy cập này đã chiếm gần 10% tổng lưu lượng của một trang web. Tỷ lệ này không hề nhỏ, đặc biệt đối với các nền tảng có lưu lượng truy cập cao. Trong số các tác nhân hoạt động tích cực nhất có Meta ExternalAgent, ChatGPT-UserMeta WebIndexer, mỗi tác nhân có các phương pháp khám phá khác nhau.

Nhưng sự tăng trưởng này đặt ra một câu hỏi cơ bản: liệu tất cả những tương tác này thực sự có giá trị? Báo cáo nhấn mạnh rằng một số tác nhân đóng góp vào SEO hoặc khả năng hiển thị, trong khi những tác nhân khác chỉ đơn giản là thu thập dữ liệu… mà không mang lại lợi ích trực tiếp nào cho các trang web liên quan.

Khủng hoảng về khả năng hiển thị và nhận diện

Ngoài khối lượng, điều đáng lo ngại nhất chính là sự thiếu minh bạch, vì một phần lớn lưu lượng truy cập này vẫn khó xác định chính xác. Đối với các doanh nghiệp, việc phân biệt một tác nhân hợp pháp với một tác nhân độc hại đang trở thành một thách thức hoạt động thực sự.

Hơn nữa, hiện tượng mạo danh này minh họa hoàn hảo vấn đề này. Các tác nhân được biết đến với tên Meta ExternalAgent hoặc ChatGPT-User thường xuyên bị giả mạo để vượt qua các hệ thống bảo mật, và trong một số trường hợp, chẳng hạn như với PerplexityBot, tỷ lệ yêu cầu gian lận đạt mức đáng kể. Sự mơ hồ này cũng làm suy yếu các chiến lược lọc truyền thống, bởi vì việc cho phép một bot chỉ dựa trên "user-agent" của nó (tức là mã định danh kỹ thuật của nó) giờ đây có thể mở ra cánh cửa cho các cuộc tấn công trá hình. Do đó, web đang bước vào giai đoạn mà danh tính của máy móc trở nên quan trọng như danh tính của người dùng… Các lĩnh vực đặc biệt dễ bị tổn thương: Theo báo cáo của DataDome, không phải tất cả các lĩnh vực đều bị ảnh hưởng theo cùng một cách. Ví dụ, riêng thương mại điện tử chiếm khoảng 20% lưu lượng truy cập này, tiếp theo là bất động sản với 17% và du lịch với 15%. Trong những môi trường này, các tác nhân có thể phân tích giá cả, tình trạng sẵn có hoặc hành vi người dùng trên quy mô lớn.

Ngoài ra, sự xuất hiện của các giải pháp như OpenClaw hoặc các trình duyệt dựa trên tác nhân, chẳng hạn như ChatGPT Atlas, càng làm nổi bật hiện tượng này. Những công cụ này, có khả năng hoạt động tự động trên web, vẫn chưa được quản lý chặt chẽ và bị các tổ chức đánh giá thấp đáng kể.

Đối mặt với thực tế mới này, một điều chắc chắn đang nổi lên: nếu không có các công cụ có khả năng phân loại chính xác các tác nhân này, các công ty đang tiến bước một cách mù quáng trong một hệ sinh thái ngày càng tự động hóa…

Bình luận

Vui lòng Đăng nhập để lại một bình luận.

Muốn đăng chủ đề của bạn

Tham gia cộng đồng người sáng tạo toàn cầu, kiếm tiền từ nội dung của bạn một cách dễ dàng. Bắt đầu hành trình thu nhập thụ động của bạn với Digbly ngay hôm nay!

Đăng nó ngay bây giờ

Đề xuất cho bạn