Segundo um relatório, a internet está sendo inundada por bilhões de visitas de bots de IA.
Por trás das promessas de automação e desempenho, esses sistemas já estão redefinindo a forma como os sites são rastreados, indexados e usados.
Um relatório recente publicado pela DataDome destaca uma realidade ainda amplamente subestimada: os agentes de IA não estão mais apenas auxiliando os usuários, mas se tornando atores de pleno direito na web… Os números apresentados dão o tom. Nos dois primeiros meses de 2026, foram registradas quase 7,9 bilhões de solicitações originadas de agentes de IA. Um aumento de 5% em comparação com o final de 2025 confirma uma aceleração contínua. Em alguns casos, esse tráfego já representa quase 10% do volume total de um site. Essa proporção está longe de ser desprezível, especialmente para plataformas de alto tráfego. Entre os agentes mais ativos estão Meta ExternalAgent, ChatGPT-User e Meta WebIndexer, cada um com diferentes métodos de exploração.Mas esse crescimento levanta uma questão fundamental: todas essas interações realmente têm valor? O relatório destaca que alguns agentes contribuem para o SEO ou para a visibilidade, enquanto outros simplesmente coletam dados… sem nenhum benefício direto para os sites envolvidos.
Uma Crise de Visibilidade e Identidade
Além do volume, é principalmente a falta de transparência que preocupa, já que grande parte desse tráfego permanece difícil de identificar com precisão. Para as empresas, distinguir um agente legítimo de um malicioso está se tornando, portanto, um verdadeiro desafio operacional.
Além disso, esse fenômeno de personificação ilustra perfeitamente esse problema. Agentes conhecidos como Meta ExternalAgent ou ChatGPT-User são imitados regularmente para burlar sistemas de segurança e, em alguns casos, como com o PerplexityBot, as taxas de solicitações fraudulentas atingem níveis significativos. Essa ambiguidade também enfraquece as estratégias tradicionais de filtragem, pois permitir um bot com base apenas em seu "user-agent" (ou seja, seu identificador técnico) pode agora abrir caminho para ataques disfarçados. Assim, a web está entrando em uma fase em que a identidade das máquinas se torna tão crítica quanto a dos usuários… Setores particularmente expostos: De acordo com o relatório da DataDome, nem todos os setores são afetados da mesma forma. Por exemplo, o e-commerce sozinho representa aproximadamente 20% desse tráfego, seguido pelo setor imobiliário com 17% e pelo setor de viagens com 15%. Nesses ambientes, os agentes podem analisar preços, disponibilidade ou comportamento do usuário em larga escala. Além disso, o surgimento de soluções como o OpenClaw ou navegadores baseados em agentes, como o ChatGPT Atlas, acentua ainda mais esse fenômeno. Essas ferramentas, capazes de agir autonomamente na web, permanecem em grande parte não regulamentadas e são significativamente subestimadas pelas organizações. Diante dessa nova realidade, uma certeza emerge: sem ferramentas capazes de classificar esses agentes com precisão, as empresas estão avançando às cegas em um ecossistema cada vez mais automatizado…
Por favor Conecte-se para deixar um comentário.
Quer postar seu tópico
Junte-se a uma comunidade global de criadores e monetize seu conteúdo facilmente. Comece sua jornada de renda passiva com Digbly hoje!
Poste agora
Comentários