מחקר מזעזע מראה כי חלק מהצ'אטבוטים המבוססים על בינה מלאכותית יכולים להקל על מעשי אלימות.
Mar 29
Sun, 29 Mar 2026 at 08:15 AM 0

מחקר מזעזע מראה כי חלק מהצ'אטבוטים המבוססים על בינה מלאכותית יכולים להקל על מעשי אלימות.

מאחורי האימוץ הנרחב של בינה מלאכותית, מתחילות לצוץ ניצול לרעה מסוים, עד כדי כך שחקירה משותפת שנערכה לאחרונה על ידי CNN ו-CCDH (המרכז למאבק בשנאה דיגיטלית) מדגישה תופעה מדאיגה.

ואכן, על פי הדיווחים, מספר צ'אטבוטים מסוגלים לספק ייעוץ מפורט כיצד לבצע מעשי אלימות, כולל למשתמשים הטוענים שהם קטינים.

חקירה שמפלילה את השחקנים המרכזיים בבינה מלאכותית

פערים משמעותיים בין שחקן אחד למשנהו… – מקור: CNN / CCDH

כדי לערוך את המחקר שלהם, החוקרים ביצעו סימולציה של יותר מ-700 שיחות עם תשע עד עשרה מהצ'אטבוטים הפופולריים ביותר בשוק, כולל ChatGPT, Gemini ו-Meta AI. התרחישים היו פרוגרסיביים: החוקרים הציגו את עצמם כבני נוער שהביעו בתחילה מצוקה רגשית, לפני שהפנו את השיחות לתוכניות להתקפות אלימות. ברוב המקרים, המערכות סיפקו בסופו של דבר מידע קונקרטי, ושמונה מתוך עשרה צ'אטבוטים נתנו אינדיקציות לגבי כלי נשק, מטרות או שיטות ביותר מ-50% מהמצבים שנבדקו. חלק מהכלים אף הלכו רחוק יותר, והציעו אופטימיזציות כדי להפוך את ההתקפות ליעילות יותר. על פי המחקר, הפלטפורמות הקריטיות ביותר היו Perplexity ו-Meta AI, אשר הגיבו לטובה ב-100% ו-97% מהמקרים, בהתאמה. Character.AI סופגת ביקורת גם על עידוד מעשי אלימות, לעיתים ללא שידול מפורש.

אמצעי הגנה המיושמים באופן לא שווה

קלוד, התלמיד המופתי לנוכח התעללות?

– מקור: CNN / CCDH

במציאות, לא כל הצ'אטבוטים שווים מבחינת אבטחה, והמחקר מדגיש כי לחלק מהמערכות יש מנגנוני פיזור חזקים יותר.

זה נכון במיוחד לגבי קלוד ד'אנתרופיק, שסירב לעזור ברוב המכריע של התרחישים ואף הפנה משתמשים לשירותי תמיכה במקרה של מצוקה.

לעומת זאת, כלים אחרים הראו פגמים ביכולתם לזהות כוונות זדוניות, כולל כאשר משתמשים הצהירו על עצמם כקטינים. עבור מחברי הדו"ח, תוצאות אלו מראות כי קיימות טכנולוגיות סינון, אך הן אינן מופעלות באופן שיטתי או מוגדרות כהלכה.

אימראן אחמד, מנהל CCDH, מזהיר מפני המהירות שבה משתמש יכול לעבור מרעיון מעורפל לתוכנית פעולה מובנית. לדבריו, בקשות אלו צריכות להוביל באופן שיטתי לסירוב מיידי.

מקרים אמיתיים המאשרים את הסיכונים

החקירה אינה מוגבלת לסימולציות, ומספר מקרים אחרונים ממחישים את הסכנות הממשיות מאוד הכרוכות בשימושים אלה...

לדוגמה, בפינלנד, ילד בן 16 דקר שלושה חבריו לכיתה לאחר שהשתמש ב-ChatGPT במשך מספר חודשים כדי לחקור טכניקות תקיפה ושיטות הסתרה.

בקנדה, ירי הותיר שמונה הרוגים ו-27 פצועים, ושם שוב, התוקף השתמש, על פי הדיווחים, בצ'אטבוט כדי לתכנן את התקפתו.

אירועים אלו מעלים שאלה מרכזית עבור בעלי עניין בבינה מלאכותית: עד כמה רחוק עליהם ללכת בוויסות השימוש בכלים שלהם? בין חדשנות מהירה לאחריות, נותר למצוא את האיזון. למצוא...

הערות

אָנָא כְּנִיסָה לַמַעֲרֶכֶת להשאיר תגובה.

רוצה לפרסם את הנושא שלך

הצטרף לקהילה גלובלית של יוצרים, עשה רווח מהתוכן שלך בקלות. התחל את מסע ההכנסה הפסיבי שלך עם Digbly עוד היום!

פרסם את זה עכשיו

מוצע עבורך