Volgens een rapport wordt het internet overspoeld met miljarden bezoeken van AI-bots.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

Volgens een rapport wordt het internet overspoeld met miljarden bezoeken van AI-bots.

AI blijft het web transformeren, maar niet alleen qua zichtbare toepassingen. Er vindt namelijk ook een andere, meer discrete transformatie achter de schermen plaats: die van het verkeer dat door autonome agenten wordt gegenereerd.

Achter de beloftes van automatisering en prestaties herdefiniëren deze systemen nu al hoe websites worden gecrawld, geïndexeerd en gebruikt.

Een recent rapport van DataDome benadrukt een nog grotendeels onderschatte realiteit: AI-agenten assisteren gebruikers niet langer alleen, maar worden volwaardige spelers op het web… De gepresenteerde cijfers geven de toon aan. In de eerste twee maanden van 2026 werden bijna 7,9 miljard verzoeken afkomstig van AI-agenten geregistreerd. Een stijging van 5% ten opzichte van eind 2025 bevestigt een voortdurende versnelling. In sommige gevallen vertegenwoordigt dit verkeer al bijna 10% van het totale volume van een site. Dit aandeel is verre van verwaarloosbaar, vooral voor platforms met veel verkeer. Tot de meest actieve agents behoren Meta ExternalAgent, ChatGPT-User en Meta WebIndexer, elk met verschillende verkenningsmethoden.

Maar deze groei roept een fundamentele vraag op: hebben al deze interacties daadwerkelijk waarde? Het rapport benadrukt dat sommige agents bijdragen aan SEO of zichtbaarheid, terwijl andere simpelweg data verzamelen... zonder direct voordeel voor de betrokken websites.

Een zichtbaarheids- en identiteitscrisis

Naast het volume is het vooral het gebrek aan transparantie dat zorgwekkend is, aangezien een groot deel van dit verkeer moeilijk precies te identificeren blijft. Voor bedrijven wordt het onderscheiden van een legitieme agent van een kwaadwillende agent daarom een echte operationele uitdaging.

Bovendien illustreert dit fenomeen van imitatie dit probleem perfect. Agenten die bekend staan als Meta ExternalAgent of ChatGPT-User worden regelmatig geïmiteerd om beveiligingssystemen te omzeilen, en in sommige gevallen, zoals bij PerplexityBot, bereiken de frauduleuze verzoeken aanzienlijke niveaus. Deze ambiguïteit verzwakt ook traditionele filterstrategieën, omdat het toestaan van een bot uitsluitend op basis van zijn "user-agent" (d.w.z. zijn technische identificatiecode) nu de deur kan openen voor vermomde aanvallen. Het web betreedt dus een fase waarin de identiteit van machines net zo belangrijk wordt als die van gebruikers… Bijzonder kwetsbare sectoren: Volgens het DataDome-rapport worden niet alle sectoren op dezelfde manier getroffen. Zo is e-commerce alleen al goed voor ongeveer 20% van dit verkeer, gevolgd door vastgoed met 17% en reizen met 15%. In deze omgevingen kunnen agents prijzen, beschikbaarheid of gebruikersgedrag op grote schaal analyseren. Bovendien versterkt de opkomst van oplossingen zoals OpenClaw of agentgebaseerde browsers, zoals ChatGPT Atlas, dit fenomeen nog verder. Deze tools, die autonoom op het web kunnen opereren, zijn grotendeels ongereguleerd en worden door organisaties aanzienlijk onderschat. Geconfronteerd met deze nieuwe realiteit, wordt één ding duidelijk: zonder tools die deze agents nauwkeurig kunnen classificeren, gaan bedrijven blindelings verder in een steeds meer geautomatiseerd ecosysteem…

Opmerkingen

Alsjeblieft Login om een ​​reactie achter te laten.

Wilt u uw onderwerp plaatsen

Sluit u aan bij een wereldwijde gemeenschap van makers en genereer eenvoudig inkomsten met uw inhoud.Begin vandaag nog met uw passieve inkomensreis met Digbly!

Plaats het nu

Voorgesteld voor jou