D'après un rapport, Internet est inondé de milliards de visites provenant de robots dotés d'intelligence artificielle.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

D'après un rapport, Internet est inondé de milliards de visites provenant de robots dotés d'intelligence artificielle.

L'IA continue de transformer le web, mais pas seulement en termes d'usages visibles. En effet, une autre transformation, plus discrète, s'opère en coulisses: celle du trafic généré par les agents autonomes. Derrière les promesses d'automatisation et de performance, ces systèmes redéfinissent déjà la manière dont les sites web sont explorés, indexés et utilisés. Un récent rapport publié par DataDome met en lumière une réalité encore largement sous-estimée: les agents d'IA ne se contentent plus d'assister les utilisateurs, mais deviennent des acteurs à part entière du web… Les chiffres présentés sont éloquents. Au cours des deux premiers mois de 2026, près de 7,9milliards de requêtes provenant d'agents d'IA ont été enregistrées. Une augmentation de 5% par rapport à fin 2025 confirme une accélération continue. Dans certains cas, ce trafic représente déjà près de 10% du volume total d'un site. Cette proportion est loin d'être négligeable, surtout pour les plateformes à fort trafic. Parmi les agents les plus actifs figurent Meta ExternalAgent, ChatGPT-User et Meta WebIndexer, chacun utilisant des méthodes d'exploration différentes.

Mais cette croissance soulève une question fondamentale: toutes ces interactions ont-elles une réelle valeur? Le rapport souligne que certains agents contribuent au référencement naturel ou à la visibilité, tandis que d'autres se contentent de collecter des données… sans aucun bénéfice direct pour les sites web concernés.

Crise de visibilité et d'identité

Au-delà du volume, c'est surtout le manque de transparence qui est préoccupant, car une grande partie de ce trafic reste difficile à identifier précisément. Pour les entreprises, distinguer un agent légitime d'un agent malveillant devient donc un véritable défi opérationnel.

De plus, ce phénomène d'usurpation d'identité illustre parfaitement ce problème. Les agents connus sous les noms de Meta ExternalAgent ou ChatGPT-User sont régulièrement imités pour contourner les systèmes de sécurité et, dans certains cas, comme avec PerplexityBot, le taux de requêtes frauduleuses atteint des niveaux significatifs. Cette ambiguïté fragilise également les stratégies de filtrage traditionnelles, car autoriser un bot uniquement sur la base de son «agent utilisateur» (c’est-à-dire son identifiant technique) peut désormais ouvrir la porte à des attaques dissimulées. Ainsi, le web entre dans une phase où l’identité des machines devient aussi cruciale que celle des utilisateurs… Secteurs particulièrement exposés: selon le rapport DataDome, tous les secteurs ne sont pas touchés de la même manière. Par exemple, le commerce électronique représente à lui seul environ 20% de ce trafic, suivi par l’immobilier (17%) et le tourisme (15%). Dans ces environnements, les agents peuvent analyser les prix, la disponibilité ou le comportement des utilisateurs à grande échelle. De plus, l'émergence de solutions comme OpenClaw ou de navigateurs basés sur des agents, tels que ChatGPT Atlas, accentue encore ce phénomène. Ces outils, capables d'agir de manière autonome sur le web, restent largement non réglementés et sont considérablement sous-estimés par les organisations. Face à cette nouvelle réalité, une certitude s'impose: sans outils permettant de classifier précisément ces agents, les entreprises avancent à l'aveuglette dans un écosystème de plus en plus automatisé…

Commentaires

S'il te plaît Se connecter pour laisser un commentaire.

Vous souhaitez publier votre sujet

Rejoignez une communauté mondiale de créateurs, monétisez facilement votre contenu. Commencez votre parcours de revenu passif avec Digbly dès aujourd'hui !

Postez-le maintenant

Suggéré pour vous