一份报告显示,互联网正遭受数十亿次来自人工智能机器人的访问。
人工智能正在持续改变网络,但不仅仅体现在显而易见的用途上。事实上,另一种更为隐蔽的变革正在幕后发生:自主代理产生的流量。
在自动化和性能提升的承诺背后,这些系统正在重新定义网站的抓取、索引和使用方式。
DataDome 最近发布的一份报告强调了一个仍被严重低估的现实:人工智能代理不再仅仅是用户的助手,而是正在成为网络上的全面参与者……报告中呈现的数据奠定了基调。在 2026 年的前两个月,来自人工智能代理的请求量接近 79 亿次。与 2025 年底相比增长了 5%,证实了这一增长势头的持续加速。在某些情况下,这种流量已经占到网站总流量的近 10%。这个比例绝非微不足道,尤其是在高流量平台上。最活跃的代理包括Meta ExternalAgent、ChatGPT-User和Meta WebIndexer,它们各自采用不同的探索方法。但这种增长引发了一个根本性问题:所有这些交互真的有价值吗?报告强调,一些代理有助于搜索引擎优化或提升网站曝光度,而另一些代理则仅仅收集数据……对相关网站没有任何直接益处。
可见性和身份危机
除了数量之外,主要令人担忧的是缺乏透明度,因为很大一部分流量仍然难以精确识别。因此,对于企业而言,区分合法代理和恶意代理正成为一项真正的运营挑战。
此外,这种冒充现象完美地诠释了这个问题。被称为 Meta ExternalAgent 或 ChatGPT-User 的代理经常被模仿以绕过安全系统,在某些情况下,例如 PerplexityBot,欺诈请求率会达到相当高的水平。这种模糊性也削弱了传统的过滤策略,因为仅仅基于“用户代理”(即其技术标识符)允许机器人访问,现在可能会为伪装攻击打开方便之门。因此,网络正在进入一个机器身份与用户身份同等重要的阶段……特别容易受影响的行业:根据 DataDome 的报告,并非所有行业都受到同等程度的影响。例如,仅电子商务就占此类流量的约 20%,其次是房地产(17%)和旅游(15%)。在这些环境中,代理可以大规模地分析价格、可用性或用户行为。
此外,OpenClaw 等解决方案或 ChatGPT Atlas 等基于代理的浏览器的出现,进一步加剧了这一现象。这些工具能够在网络上自主运行,但目前仍缺乏监管,并且被许多组织严重低估。
面对这种新的现实,一个确定的事实正在浮现:如果没有能够精确分类这些代理的工具,企业在日益自动化的生态系统中就像盲人摸象一样……
请 登录 发表评论。
评论