Secondo un rapporto, internet è invaso da miliardi di visite provenienti da bot basati sull'intelligenza artificiale.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

Secondo un rapporto, internet è invaso da miliardi di visite provenienti da bot basati sull'intelligenza artificiale.

L'IA continua a trasformare il web, ma non solo in termini di utilizzi visibili. Infatti, dietro le quinte si sta verificando un'altra trasformazione, più discreta: quella del traffico generato da agenti autonomi.

Dietro le promesse di automazione e prestazioni, questi sistemi stanno già ridefinendo il modo in cui i siti web vengono scansionati, indicizzati e utilizzati.

Un recente report pubblicato da DataDome evidenzia una realtà ancora ampiamente sottovalutata: gli agenti di intelligenza artificiale non si limitano più ad assistere gli utenti, ma stanno diventando veri e propri protagonisti del web… I dati presentati danno il tono. Nei primi due mesi del 2026 sono state registrate quasi 7,9 miliardi di richieste provenienti da agenti di intelligenza artificiale. Un aumento del 5% rispetto alla fine del 2025 conferma una continua accelerazione. In alcuni casi, questo traffico rappresenta già quasi il 10% del volume totale di un sito. Questa percentuale è tutt'altro che trascurabile, soprattutto per le piattaforme ad alto traffico. Tra gli agenti più attivi figurano Meta ExternalAgent, ChatGPT-User e Meta WebIndexer, ognuno con metodi di esplorazione differenti.

Ma questa crescita solleva una questione fondamentale: tutte queste interazioni hanno effettivamente valore? Il report evidenzia che alcuni agenti contribuiscono alla SEO o alla visibilità, mentre altri si limitano a raccogliere dati... senza alcun beneficio diretto per i siti web coinvolti.

Una crisi di visibilità e identità

Al di là del volume, è soprattutto la mancanza di trasparenza a preoccupare, poiché una grande parte di questo traffico rimane difficile da identificare con precisione. Per le aziende, distinguere un agente legittimo da uno dannoso sta quindi diventando una vera sfida operativa.

Inoltre, questo fenomeno di impersonificazione illustra perfettamente tale problema. Agenti noti come Meta ExternalAgent o ChatGPT-User vengono regolarmente imitati per aggirare i sistemi di sicurezza e, in alcuni casi, come con PerplexityBot, i tassi di richieste fraudolente raggiungono livelli significativi. Questa ambiguità indebolisce anche le tradizionali strategie di filtraggio, perché consentire a un bot di operare basandosi esclusivamente sul suo "user-agent" (ovvero, il suo identificativo tecnico) può ora aprire la porta ad attacchi mascherati. Pertanto, il web sta entrando in una fase in cui l'identità delle macchine sta diventando critica quanto quella degli utenti... Settori particolarmente esposti: secondo il report di DataDome, non tutti i settori sono colpiti allo stesso modo. Ad esempio, l'e-commerce da solo rappresenta circa il 20% di questo traffico, seguito dal immobiliare con il 17% e dal turismo con il 15%. In questi ambienti, gli agenti possono analizzare prezzi, disponibilità o comportamento degli utenti su larga scala.

Inoltre, l'emergere di soluzioni come OpenClaw o browser basati su agenti, come ChatGPT Atlas, accentua ulteriormente questo fenomeno. Questi strumenti, capaci di agire autonomamente sul web, rimangono in gran parte non regolamentati e sono notevolmente sottovalutati dalle organizzazioni.

Di fronte a questa nuova realtà, emerge una certezza: senza strumenti in grado di classificare con precisione questi agenti, le aziende procedono alla cieca in un ecosistema sempre più automatizzato…

Commenti

Per favore Login per lasciare un commento

Vuoi pubblicare il tuo argomento

Unisciti a una community globale di creatori, monetizza facilmente i tuoi contenuti.Inizia oggi il tuo viaggio nel reddito passivo con Digbly!

Pubblicalo ora

Consigliato per te