한 보고서에 따르면 인터넷에 인공지능 봇의 접속이 수십억 건에 달하고 있다고 합니다.
AI는 웹을 계속해서 변화시키고 있지만, 단지 눈에 보이는 용도 측면에서만 그런 것은 아닙니다. 실제로, 더욱 은밀한 변화가 배후에서 일어나고 있습니다. 자율 에이전트가 생성하는 트래픽의 변화입니다.
하지만 이러한 성장은 근본적인 질문을 제기합니다. 이러한 모든 상호 작용이 실제로 가치가 있는 것일까요? 보고서에 따르면 일부 에이전트는 SEO 또는 가시성 향상에 기여하는 반면, 다른 에이전트는 관련 웹사이트에 직접적인 이점을 제공하지 않고 단순히 데이터만 수집합니다.
가시성 및 신원 위기
양적인 증가 외에도, 우려스러운 점은 주로 투명성 부족입니다. 이러한 트래픽의 상당 부분을 정확하게 식별하기 어렵기 때문입니다. 따라서 기업에게는 합법적인 에이전트와 악의적인 에이전트를 구분하는 것이 실질적인 운영상의 과제가 되고 있습니다.
더욱이, 이러한 사칭 현상은 이 문제를 완벽하게 보여줍니다. Meta ExternalAgent 또는 ChatGPT-User로 알려진 에이전트는 보안 시스템을 우회하기 위해 정기적으로 모방되며, PerplexityBot과 같은 경우에는 사기성 요청률이 상당한 수준에 이릅니다. 이러한 모호성은 기존 필터링 전략을 약화시키는데, "user-agent"(즉, 기술적 식별자)에만 기반하여 봇을 허용하는 것은 이제 위장된 공격에 대한 문을 열어줄 수 있기 때문입니다. 따라서 웹은 기계의 신원이 사용자의 신원만큼 중요해지는 단계로 접어들고 있습니다. 특히 취약한 분야: DataDome 보고서에 따르면 모든 분야가 동일한 방식으로 영향을 받는 것은 아닙니다. 예를 들어, 전자상거래만 해도 이러한 트래픽의 약 20%를 차지하며, 부동산이 17%, 여행이 15%를 차지합니다. 이러한 환경에서 에이전트는 대규모로 가격, 가용성 또는 사용자 행동을 분석할 수 있습니다.
또한 OpenClaw와 같은 솔루션이나 ChatGPT Atlas와 같은 에이전트 기반 브라우저의 등장으로 이러한 현상이 더욱 두드러지고 있습니다. 웹에서 자율적으로 작동할 수 있는 이러한 도구들은 대부분 규제가 미비하고 있으며 기업들은 그 중요성을 제대로 인식하지 못하고 있습니다.
이러한 새로운 현실에 직면하여 한 가지 확실한 사실이 드러나고 있습니다. 이러한 에이전트를 정확하게 분류할 수 있는 도구가 없다면 기업들은 점점 더 자동화되는 생태계 속에서 맹목적으로 나아가게 될 것입니다.
제발 로그인 댓글을 남기려고.
댓글