Según un informe, Internet está siendo inundado con miles de millones de visitas de bots de inteligencia artificial.
La IA continúa transformando la web, pero no solo en términos de usos visibles. De hecho, otra transformación, más discreta, está teniendo lugar entre bastidores: la del tráfico generado por agentes autónomos.
Detrás de las promesas de automatización y rendimiento, estos sistemas ya están redefiniendo cómo se rastrean, indexan y utilizan los sitios web.
Un informe reciente publicado por DataDome destaca una realidad aún en gran medida subestimada: los agentes de IA ya no solo ayudan a los usuarios, sino que se están convirtiendo en actores de pleno derecho en la web… Las cifras presentadas marcan la pauta. En los dos primeros meses de 2026, se registraron casi 7.900 millones de solicitudes originadas por agentes de IA. Un aumento del 5% en comparación con finales de 2025 confirma una aceleración continua. En algunos casos, este tráfico ya representa casi el 10% del volumen total de un sitio. Esta proporción dista mucho de ser insignificante, especialmente para plataformas con mucho tráfico. Entre los agentes más activos se encuentran Meta ExternalAgent, ChatGPT-User y Meta WebIndexer, cada uno con diferentes métodos de exploración.Pero este crecimiento plantea una pregunta fundamental: ¿tienen realmente valor todas estas interacciones? El informe destaca que algunos agentes contribuyen al SEO o a la visibilidad, mientras que otros simplemente recopilan datos… sin ningún beneficio directo para los sitios web involucrados.
Una crisis de visibilidad e identidad
Más allá del volumen, es principalmente la falta de transparencia lo que preocupa, ya que una gran parte de este tráfico sigue siendo difícil de identificar con precisión. Para las empresas, distinguir un agente legítimo de uno malicioso se está convirtiendo, por lo tanto, en un verdadero desafío operativo.
Además, este fenómeno de suplantación ilustra perfectamente este problema. Agentes conocidos como Meta ExternalAgent o ChatGPT-User son imitados regularmente para eludir los sistemas de seguridad, y en algunos casos, como con PerplexityBot, las tasas de solicitudes fraudulentas alcanzan niveles significativos. Esta ambigüedad también debilita las estrategias de filtrado tradicionales, porque permitir un bot basándose únicamente en su "user-agent" (es decir, su identificador técnico) ahora puede abrir la puerta a ataques disfrazados. Por lo tanto, la web está entrando en una fase donde la identidad de las máquinas se está volviendo tan crítica como la de los usuarios… Sectores particularmente expuestos: Según el informe DataDome, no todos los sectores se ven afectados de la misma manera. Por ejemplo, el comercio electrónico por sí solo representa aproximadamente el 20% de este tráfico, seguido por el bienes raíces con un 17% y el viajes con un 15%. En estos entornos, los agentes pueden analizar precios, disponibilidad o comportamiento del usuario a gran escala.
Además, la aparición de soluciones como OpenClaw o navegadores basados en agentes, como ChatGPT Atlas, acentúa aún más este fenómeno. Estas herramientas, capaces de actuar de forma autónoma en la web, siguen estando en gran medida sin regular y son significativamente subestimadas por las organizaciones.
Ante esta nueva realidad, surge una certeza: sin herramientas capaces de clasificar con precisión a estos agentes, las empresas avanzan a ciegas en un ecosistema cada vez más automatizado…
Por favor Iniciar sesión para dejar un comentario.
Quiere publicar su tema
Únete a una comunidad global de creadores y monetiza tu contenido fácilmente. ¡Comience su viaje de ingresos pasivos con Digbly hoy!
Publíquelo ahora
Comentarios