بر اساس یک گزارش، اینترنت مملو از میلیاردها بازدید از ربات‌های هوش مصنوعی شده است.
Mar 29
Sun, 29 Mar 2026 at 12:15 AM 0

بر اساس یک گزارش، اینترنت مملو از میلیاردها بازدید از ربات‌های هوش مصنوعی شده است.

هوش مصنوعی همچنان وب را تغییر میدهد، اما نه فقط از نظر کاربردهای قابل مشاهده. در واقع، یک تغییر دیگر، که نامحسوستر است، در پشت صحنه در حال وقوع است: تغییر ترافیک تولید شده توسط عوامل خودمختار.

در پس وعدههای اتوماسیون و عملکرد، این سیستمها در حال حاضر در حال تعریف مجدد نحوه خزش، فهرستبندی و استفاده از وبسایتها هستند.

گزارشی که اخیراً توسط DataDome منتشر شده است، واقعیتی را که هنوز تا حد زیادی دست کم گرفته شده است، برجسته میکند: عوامل هوش مصنوعی دیگر صرفاً به کاربران کمک نمیکنند، بلکه در حال تبدیل شدن به بازیگران تمامعیار در وب هستند... ارقام ارائه شده، روند را مشخص میکنند. در دو ماه اول سال 2026، نزدیک به 7.9 میلیارد درخواست از سوی عوامل هوش مصنوعی ثبت شده است. افزایش 5 درصدی در مقایسه با پایان سال 2025، شتاب مداوم را تأیید میکند. در برخی موارد، این ترافیک تقریباً 10 درصد از کل حجم یک سایت را تشکیل میدهد. این نسبت به هیچ وجه قابل چشمپوشی نیست، به خصوص برای پلتفرمهای پرترافیک. از جمله فعالترین عوامل میتوان به Meta ExternalAgent، ChatGPT-User و Meta WebIndexer اشاره کرد که هر کدام روشهای کاوش متفاوتی دارند.

اما این رشد یک سوال اساسی را مطرح میکند: آیا همه این تعاملات واقعاً ارزشی دارند؟ این گزارش تأکید میکند که برخی از عوامل به سئو یا دیده شدن کمک میکنند، در حالی که برخی دیگر صرفاً دادهها را جمعآوری میکنند... بدون هیچ سود مستقیمی برای وبسایتهای درگیر.

بحران دیده شدن و هویت

فراتر از حجم، در درجه اول عدم شفافیت نگرانکننده است، زیرا شناسایی دقیق بخش بزرگی از این ترافیک همچنان دشوار است. بنابراین برای کسبوکارها، تشخیص یک عامل مشروع از یک عامل مخرب به یک چالش عملیاتی واقعی تبدیل میشود.

علاوه بر این، این پدیده جعل هویت کاملاً این مشکل را نشان میدهد. عاملهایی که به عنوان Meta ExternalAgent یا ChatGPT-User شناخته میشوند، مرتباً برای دور زدن سیستمهای امنیتی مورد استفاده قرار میگیرند و در برخی موارد، مانند PerplexityBot، میزان درخواستهای جعلی به سطوح قابل توجهی میرسد. این ابهام همچنین استراتژیهای فیلترینگ سنتی را تضعیف میکند، زیرا اجازه دادن به یک ربات صرفاً بر اساس "عامل-کاربر" (یعنی شناسه فنی آن) اکنون میتواند در را برای حملات پنهان باز کند. بنابراین، وب وارد مرحلهای میشود که هویت ماشینها به اندازه هویت کاربران حیاتی میشود... بخشهای به ویژه در معرض خطر: طبق گزارش DataDome، همه بخشها به یک اندازه تحت تأثیر قرار نمیگیرند. به عنوان مثال، تجارت الکترونیک به تنهایی تقریباً 20٪ از این ترافیک را تشکیل میدهد و پس از آن املاک و مستغلات با 17٪ و مسافرت با 15٪ قرار دارند. در این محیطها، عاملها میتوانند قیمتها، در دسترس بودن یا رفتار کاربر را در مقیاس وسیع تجزیه و تحلیل کنند.

علاوه بر این، ظهور راهحلهایی مانند OpenClaw یا مرورگرهای مبتنی بر عامل، مانند ChatGPT Atlas، این پدیده را بیشتر برجسته میکند. این ابزارها، که قادر به عملکرد مستقل در وب هستند، تا حد زیادی بدون نظارت باقی ماندهاند و سازمانها به طور قابل توجهی آنها را دست کم میگیرند.

در مواجهه با این واقعیت جدید، یک قطعیت در حال ظهور است: بدون ابزارهایی که قادر به طبقهبندی دقیق این عاملها باشند، شرکتها کورکورانه در یک اکوسیستم به طور فزاینده خودکار پیش میروند...

نظرات

لطفا ورود به سیستم برای گذاشتن نظر

می خواهید موضوع خود را ارسال کنید

به جامعه جهانی سازندگان بپیوندید، از محتوای خود به راحتی درآمد کسب کنید. امروز سفر درآمد غیرفعال خود را با Digbly شروع کنید!

اکنون آن را ارسال کنید

برای شما پیشنهاد می شود