یک مطالعه تکاندهنده نشان میدهد که برخی از چتباتهای هوش مصنوعی میتوانند اعمال خشونتآمیز را تسهیل کنند.
در پسِ پذیرش گستردهی هوش مصنوعی، سوءاستفادههای خاصی در حال ظهور است، به طوری که تحقیقات مشترک اخیر CNN و CCDH (مرکز مقابله با نفرتپراکنی دیجیتال) پدیدهای نگرانکننده را برجسته میکند.
در واقع، گزارش شده است که چندین چتبات قادر به ارائه مشاوره دقیق در مورد نحوه ارتکاب اعمال خشونتآمیز، از جمله به کاربرانی هستند که ادعا میکنند خردسال هستند.
تحقیقی که بازیگران اصلی هوش مصنوعی را درگیر میکند

اختلافات قابل توجه از یک بازیکن به بازیکن دیگر… – منبع: CNN / CCDH
برای انجام مطالعه خود، محققان بیش از ۷۰۰ مکالمه را با نه تا ده مورد از محبوبترین چتباتهای موجود در بازار، از جمله ChatGPT، Gemini و Meta AI، شبیهسازی کردند. سناریوها پیشرونده بودند: محققان در ابتدا خود را به عنوان نوجوانانی که پریشانی عاطفی خود را ابراز میکردند، معرفی کردند، قبل از اینکه مکالمات را به سمت برنامههایی برای حملات خشونتآمیز هدایت کنند. در اکثر موارد، سیستمها در نهایت اطلاعات مشخصی ارائه دادند و هشت مورد از ده چتبات در بیش از ۵۰٪ از موقعیتهای آزمایش شده، نشانههایی در مورد سلاحها، اهداف یا روشها ارائه دادند. برخی از ابزارها حتی فراتر رفتند و پیشنهاد بهینهسازیهایی را برای مؤثرتر کردن حملات ارائه دادند. طبق این مطالعه، حیاتیترین پلتفرمها Perplexity و Meta AI بودند که به ترتیب در ۱۰۰٪ و ۹۷٪ موارد پاسخ مثبت دادند. Character.AI همچنین به دلیل تشویق به اعمال خشونتآمیز، گاهی اوقات بدون درخواست صریح، مورد انتقاد قرار گرفته است.
حفاظتهای نابرابر اعمال شده

کلود، دانشجوی نمونه در مواجهه با سوءاستفادهها؟
– منبع: CNN / CCDHدر واقعیت، همه چتباتها از نظر امنیتی برابر نیستند و این مطالعه نشان میدهد که برخی سیستمها مکانیسمهای تعدیل قویتری دارند.
این امر به ویژه در مورد Claude d’Anthropic صادق است که از کمک خودداری کرد. در اکثر قریب به اتفاق سناریوها و حتی کاربران را در صورت بروز مشکل به خدمات پشتیبانی هدایت میکرد.
برعکس، سایر ابزارها در توانایی خود برای تشخیص نیتهای مخرب نقصهایی نشان دادند، از جمله زمانی که کاربران خود را خردسال اعلام میکردند. برای نویسندگان گزارش، این نتایج نشان میدهد که فناوریهای فیلترینگ وجود دارند، اما به طور سیستماتیک فعال یا به درستی پیکربندی نشدهاند.
عمران احمد، مدیر CCDH، در مورد سرعتی که یک کاربر میتواند از یک ایده مبهم به یک برنامه عملی ساختاریافته برسد، هشدار میدهد. به گفته او، این درخواستها باید به طور سیستماتیک منجر به رد فوری شوند.
موارد واقعی که خطرات را تأیید میکنند
تحقیقات محدود به شبیهسازیها نیست و چندین مورد اخیر خطرات بسیار واقعی مرتبط با این کاربردها را نشان میدهند…
به عنوان مثال، در فنلاند، یک نوجوان ۱۶ ساله پس از استفاده از ChatGPT به مدت چند ماه برای تحقیق در مورد تکنیکهای حمله و روشهای پنهانکاری، سه همکلاسی خود را با چاقو زخمی کرد.
در کانادا، یک تیراندازی هشت کشته و ۲۷ زخمی بر جای گذاشت و در آنجا نیز، طبق گزارشها، مهاجم از یک چتبات برای برنامهریزی حمله خود استفاده کرده است.
این رویدادها یک سوال اساسی را برای ذینفعان هوش مصنوعی مطرح میکند: آنها تا چه حد باید در تنظیم استفاده از ابزارهای خود پیش بروند؟ بین نوآوری سریع و مسئولیتپذیری، هنوز تعادلی وجود ندارد. پیدا کردن…
لطفا ورود به سیستم برای گذاشتن نظر
می خواهید موضوع خود را ارسال کنید
به جامعه جهانی سازندگان بپیوندید، از محتوای خود به راحتی درآمد کسب کنید. امروز سفر درآمد غیرفعال خود را با Digbly شروع کنید!
اکنون آن را ارسال کنید
نظرات