Internetul este inundat de miliarde de vizite de la roboți de inteligență artificială, potrivit unui raport.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

Internetul este inundat de miliarde de vizite de la roboți de inteligență artificială, potrivit unui raport.

IA continuă să transforme webul, dar nu doar în ceea ce privește utilizările vizibile. Într-adevăr, o altă transformare, mai discretă, are loc în culise: cea a traficului generat de agenții autonomi.

În spatele promisiunilor de automatizare și performanță, aceste sisteme redefinesc deja modul în care site-urile web sunt accesate cu crawlere, indexate și utilizate.

Un raport recent publicat de DataDome evidențiază o realitate încă în mare parte subestimată: agenții IA nu mai asistă doar utilizatorii, ci devin actori cu drepturi depline pe web… Cifrele prezentate dau tonul. În primele două luni ale anului 2026, au fost înregistrate aproape 7,9 miliarde de cereri provenite de la agenți de inteligență artificială. O creștere de 5% față de sfârșitul anului 2025 confirmă o accelerare continuă. În unele cazuri, acest trafic reprezintă deja aproape 10% din volumul total al unui site. Această proporție este departe de a fi neglijabilă, în special pentru platformele cu trafic intens. Printre cei mai activi agenți se numără Meta ExternalAgent, ChatGPT-User și Meta WebIndexer, fiecare cu metode de explorare diferite.

Dar această creștere ridică o întrebare fundamentală: au toate aceste interacțiuni cu adevărat valoare? Raportul subliniază faptul că unii agenți contribuie la SEO sau vizibilitate, în timp ce alții pur și simplu colectează date... fără niciun beneficiu direct pentru site-urile web implicate.

O criză de vizibilitate și identitate

Dincolo de volum, în primul rând lipsa de transparență este îngrijorătoare, deoarece o mare parte din acest trafic rămâne dificil de identificat cu precizie. Pentru companii, distingerea unui agent legitim de unul rău intenționat devine, așadar, o adevărată provocare operațională.

Mai mult, **acest fenomen de uzurpare a identității** ilustrează perfect această problemă. Agenții cunoscuți sub numele de Meta ExternalAgent sau ChatGPT-User sunt imitați în mod regulat pentru a ocoli sistemele de securitate, iar în unele cazuri, cum ar fi în cazul **PerplexityBot**, ratele de solicitări frauduloase ating niveluri semnificative. Această ambiguitate slăbește, de asemenea, strategiile tradiționale de filtrare, deoarece permiterea unui bot bazat exclusiv pe „**user-agent**” (adică identificatorul său tehnic) poate acum **deschide ușa către atacuri deghizate**. Astfel, web-ul intră într-o fază în care identitatea mașinilor devine la fel de critică ca și cea a utilizatorilor… Sectoare deosebit de expuse: Conform raportului DataDome, nu toate sectoarele sunt afectate în același mod. De exemplu, **comerțul electronic** reprezintă doar aproximativ 20% din acest trafic, urmat de **imobiliare** cu 17% și **tururi** cu 15%. În aceste medii, agenții pot analiza prețurile, disponibilitatea sau comportamentul utilizatorilor la scară largă.

În plus, apariția unor soluții precum OpenClaw sau a browserelor bazate pe agenți, cum ar fi ChatGPT Atlas, accentuează și mai mult acest fenomen. Aceste instrumente, **capabile să acționeze autonom pe web**, rămân în mare parte nereglementate și sunt subestimate semnificativ de către organizații.

Confruntate cu această nouă realitate, apare o certitudine: **fără instrumente capabile să clasifice cu precizie acești agenți, companiile avansează orbește** într-un ecosistem din ce în ce mai automatizat…

Comentarii

Vă rog Log in sa lasi un comentariu.

Vrei să postezi subiectul tău

Alăturați-vă unei comunități globale de creatori, monetizați-vă cu ușurință conținutul. Începeți călătoria cu veniturile pasive cu Digbly astăzi!

Postează acum

Sugerat pentru tine