Согласно отчету, интернет наводнен миллиардами посещений от ботов с искусственным интеллектом.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

Согласно отчету, интернет наводнен миллиардами посещений от ботов с искусственным интеллектом.

Искусственный интеллект продолжает трансформировать интернет, но не только с точки зрения видимого использования. Действительно, за кулисами происходит еще одна, более незаметная, трансформация: трафик, генерируемый автономными агентами.

За обещаниями автоматизации и повышения производительности эти системы уже меняют способы сканирования, индексирования и использования веб-сайтов.

Недавний отчет, опубликованный DataDome, подчеркивает все еще во многом недооцененную реальность: агенты ИИ больше не просто помогают пользователям, а становятся полноправными игроками в интернете… Представленные цифры задают тон. За первые два месяца 2026 года было зарегистрировано почти 7,9 миллиарда запросов, исходящих от агентов ИИ. Рост на 5% по сравнению с концом 2025 года подтверждает продолжающееся ускорение. В некоторых случаях этот трафик уже составляет почти 10% от общего объема сайта. Эта доля отнюдь не незначительна, особенно для платформ с высоким трафиком. Среди наиболее активных агентов — Meta ExternalAgent, ChatGPT-User и Meta WebIndexer, каждый из которых использует разные методы исследования.

Но этот рост поднимает фундаментальный вопрос: действительно ли все эти взаимодействия имеют ценность? В отчете подчеркивается, что некоторые агенты способствуют SEO или повышению видимости, в то время как другие просто собирают данные… без какой-либо прямой выгоды для участвующих веб-сайтов.

Кризис видимости и идентичности

Помимо объема, в первую очередь беспокоит отсутствие прозрачности, поскольку большую часть этого трафика трудно точно идентифицировать. Поэтому для бизнеса различение легитимного агента от злонамеренного становится настоящей операционной проблемой.

Кроме того, это явление подмены личности прекрасно иллюстрирует эту проблему. Агенты, известные как Meta ExternalAgent или ChatGPT-User, регулярно имитируются для обхода систем безопасности, и в некоторых случаях, например, с PerplexityBot, количество мошеннических запросов достигает значительных уровней. Эта неоднозначность также ослабляет традиционные стратегии фильтрации, поскольку разрешение боту, основанное исключительно на его "user-agent" (т.е., его техническом идентификаторе), теперь может открыть дверь для замаскированных атак. Таким образом, веб вступает в фазу, когда идентификация машин становится столь же важной, как и идентификация пользователей… Особенно уязвимые сектора: Согласно отчету DataDome, не все сектора затронуты одинаково. Например, на электронную коммерцию приходится примерно 20% этого трафика, за ней следуют недвижимость — 17% и туризм — 15%. В таких средах агенты могут анализировать цены, доступность или поведение пользователей в больших масштабах.

Кроме того, появление таких решений, как OpenClaw или браузеров на основе агентов, таких как ChatGPT Atlas, еще больше усиливает это явление. Эти инструменты, способные действовать автономно в сети, остаются в значительной степени нерегулируемыми и значительно недооцениваются организациями.

В условиях этой новой реальности вырисовывается одна истина: без инструментов, способных точно классифицировать этих агентов, компании движутся вперед вслепую во все более автоматизированной экосистеме…

Комментарии

Пожалуйста Авторизоваться чтобы оставить комментарий.

Хотите разместить свою тему

Присоединяйтесь к глобальному сообществу авторов и легко монетизируйте свой контент. Начните свой путь к пассивному доходу с Digbly сегодня!

Опубликовать это сейчас

Предлагается для вас