هوش مصنوعی، مانند ChatGPT، در دستان مجرمان سایبری یا یک دولت اقتدارگرا می‌تواند به یک تهدید واقعی برای ناشناس ماندن آنلاین و حریم خصوصی ما تبدیل شود.
Mar 10
Tue, 10 Mar 2026 at 06:18 AM 0

هوش مصنوعی، مانند ChatGPT، در دستان مجرمان سایبری یا یک دولت اقتدارگرا می‌تواند به یک تهدید واقعی برای ناشناس ماندن آنلاین و حریم خصوصی ما تبدیل شود.

مطالعهای توسط دو محقق متخصص در هوش مصنوعی نشان داده است که مدلهای زبانی بزرگ میتوانند به سرعت یک حساب کاربری ناشناس در رسانههای اجتماعی را به یک شخص واقعی مرتبط کنند.

آیا این پایان ناشناس بودن آنلاین است، به لطف هوش مصنوعی که به عنوان یک کارآگاه خصوصی فوقالعاده قادر به افشای حتی مخفیترین کاربران اینترنت است؟ این ایده ممکن است دور از ذهن به نظر برسد، اما به نظر میرسد کار این دو محقق ثابت میکند که این یک واقعیت است، نه یک خیال. مطالعهای که توسط گاردین گزارش شده است، نشان میدهد که مجرمان سایبری به طور فزایندهای از هوش مصنوعی برای شناسایی آسانتر حسابهای کاربری ناشناس رسانههای اجتماعی استفاده میکنند. به لطف مدلهای زبانی بزرگ (مانند ChatGPT، Claude، Gemini و غیره)، میتوان یک حساب کاربری را به یک انسان واقعی، به ویژه بر اساس اطلاعاتی که به اشتراک میگذارند، مرتبط کرد. سیمون لرمن و دنیل پالکا، دو محقق این مطالعه، توضیح میدهند که این امر حملات پیچیده و سودآوری را امکانپذیر میکند. که خواستار بازنگری «اساسی» در مورد آنچه که ما اطلاعات خصوصی آنلاین میدانیم، هستند.

هوش مصنوعی متناسب با جستجو در وب، طراحی شده برای ارجاع متقابل دادهها

برای رسیدن به این کشف، آنها ابتدا دو حساب ناشناس را در یک هوش مصنوعی ادغام کردند و از آن خواستند تا حد امکان اطلاعات را بازیابی کند. یکی از این دو حساب (@anon_user42) در مورد مشکلات خود در مدرسه و تمایلش به پیادهروی سگش بیسکویت در پارکی به نام "دولورس" صحبت کرد. به لطف این اطلاعات، هوش مصنوعی سپس توانست وب را اسکن کند تا هویت فرد پشت حساب را با درجه اطمینان بالایی ارائه دهد.

محققان معتقدند که این روش به راحتی میتواند توسط هکرها، و همچنین توسط دولتهایی که مایل به ساکت کردن مخالفانی هستند که اغلب به صورت ناشناس در رسانههای اجتماعی فعالیت میکنند، مورد سوء استفاده قرار گیرد. مدلهای بزرگ زبانی در واقع ظرفیت تحلیلی سریع و بسیار کارآمدی دارند - شاید بیش از حد کارآمد - که منجر به ارجاع متقابل اطلاعات میشود که میتواند ناشناس بودن را به خطر بیندازد و مشکلات امنیتی جدی ایجاد کند. بنابراین، یک هکر میتواند به راحتی خود را جای شخص دیگری جا بزند و با استفاده از جزئیات جمعآوریشده توسط هوش مصنوعی، او را به یک عملیات فیشینگ بکشاند. دیگر نیازی به فرآیندهای پرهزینه برای دستیابی به این هدف نیست: یک هوش مصنوعی و اتصال به اینترنت، تمام چیزی است که مورد نیاز است. در حالی که این مطالعه نشان میدهد که هوش مصنوعی مؤثر است، پیتر بنتلی، استاد علوم اطلاعات در UCL، با این نظر مخالف است. او در مصاحبهای با رسانههای بریتانیایی، روندی را که میتواند منجر به «متهم شدن افراد به کارهایی که انجام ندادهاند» شود، محکوم میکند. همچنین این خطر وجود دارد که مدلهای بزرگ زبانی بتوانند به دادههای عمومی بسیار فراتر از رسانههای اجتماعی متکی باشند. گزارشهای آماری، سوابق بیمارستان و سوابق پذیرش میتوانند مورد استفاده قرار گیرند.

این مطالعه در درجه اول نشان میدهد که در فضای آنلاین، و به ویژه در رسانههای اجتماعی، نحوه تعامل کاربر میتواند به راحتی ناظران را به هویت واقعی او هدایت کند. بنابراین ضروری است که همیشه در مورد آنچه آنلاین انجام میدهید مراقب باشید، در حالی که چندین گام برای حفظ ناشناس بودن کامل برمیدارید - به عنوان مثال، با استفاده از یک آدرس ایمیل یا شماره تلفن جدا از بقیه زندگی خود. این دو محقق از پلتفرمهای رسانههای اجتماعی میخواهند که دسترسی به دادههایی را که هوش مصنوعی میتواند به آنها دسترسی داشته باشد، محدود کنند، بهویژه برای جلوگیری از «اسکرپینگ»، ویژگیای که بهطور گسترده توسط مدلهای زبانی برای جمعآوری هرچه بیشتر اطلاعات برای آموزش استفاده میشود.

نظرات

لطفا ورود به سیستم برای گذاشتن نظر

می خواهید موضوع خود را ارسال کنید

به جامعه جهانی سازندگان بپیوندید، از محتوای خود به راحتی درآمد کسب کنید. امروز سفر درآمد غیرفعال خود را با Digbly شروع کنید!

اکنون آن را ارسال کنید

برای شما پیشنهاد می شود