בידי פושעי סייבר או מדינה סמכותנית, בינה מלאכותית, כמו ChatGPT, יכולה להפוך לאיום ממשי על האנונימיות המקוונת ועל הפרטיות שלנו.
Mar 10
Tue, 10 Mar 2026 at 06:19 AM 0

בידי פושעי סייבר או מדינה סמכותנית, בינה מלאכותית, כמו ChatGPT, יכולה להפוך לאיום ממשי על האנונימיות המקוונת ועל הפרטיות שלנו.

מחקר שנערך על ידי שני חוקרים המתמחים בבינה מלאכותית גילה כי מודלים של שפה גדולה יכולים לקשר במהירות חשבון מדיה חברתית אנונימי לאדם אמיתי.

האם זהו סוף האנונימיות המקוונת הודות לבינה מלאכותית שמתפקדת כבלש פרטי-על המסוגל לחשוף אפילו את משתמשי האינטרנט הסודיים ביותר? הרעיון אולי נראה מופרך, אך נראה כי עבודתם של שני החוקרים הללו מוכיחה שמדובר במציאות, לא בפנטזיה. מחקר שדווח על ידי הגרדיאן מגלה כי פושעי סייבר משתמשים יותר ויותר בבינה מלאכותית כדי לזהות ביתר קלות חשבונות מדיה חברתית אנונימיים. הודות למודלים גדולים של שפה (כגון ChatGPT, Claude, Gemini וכו'), ניתן לקשר חשבון לאדם אמיתי, במיוחד בהתבסס על המידע שהם חולקים. זה מאפשר התקפות מתוחכמות ורווחיות, מסבירים סיימון לרמן ודניאל פאלקה, שני החוקרים שעומדים מאחורי המחקר, הקוראים לבחינה מחדש "בסיסית" של מה שאנו מחשיבים מידע פרטי באינטרנט.

בינה מלאכותית המותאמת לסריקת האינטרנט, שנועדה להצליב נתונים

כדי לגלות זאת, הם שילבו תחילה שני חשבונות אנונימיים לתוך בינה מלאכותית, שאפשרה לה לאחזר כמה שיותר מידע. אחד משני החשבונות (@anon_user42) דיבר על קשייו בבית הספר ועל נטייתו לטייל עם הכלב שלו, ביסקוויט, בפארק בשם "דולורס". הודות למידע זה, הבינה המלאכותית הצליחה לסרוק את האינטרנט כדי לספק את זהותו של האדם שמאחורי החשבון ברמה גבוהה של ביטחון.

החוקרים מאמינים ששיטה זו ניתנת לניצול בקלות על ידי האקרים, אך גם על ידי ממשלות המעוניינות להשתיק מתנגדי משטר שלרוב מנהלים קמפיינים אנונימיים ברשתות החברתיות. למודלים גדולים של שפה יש יכולת ניתוח מהירה ויעילה ביותר - אולי יעילה מדי - המובילה להצלבת מידע שעלולה לפגוע באנונימיות ולגרום לבעיות אבטחה חמורות. האקר יכול בקלות להתחזות למישהו אחר ולפתות אותו לפעולת פישינג באמצעות הפרטים שנאספו על ידי הבינה המלאכותית. תהליכים יקרים אינם נחוצים עוד כדי להשיג מטרה זו: בינה מלאכותית וחיבור לאינטרנט הם כל מה שצריך. בעוד שהמחקר מראה שבינה מלאכותית יעילה, פיטר בנטלי, פרופסור למדעי המידע ב-UCL, חולק על כך. בראיון לתקשורת הבריטית, הוא מגנה מגמה שעלולה להוביל לכך ש"אנשים יאשימו אותם בדברים שלא עשו". קיים גם הסיכון שמודלים גדולים של שפה עלולים להסתמך על נתונים ציבוריים הרבה מעבר לרשתות החברתיות. ניתן להשתמש בדוחות סטטיסטיים, רישומי בתי חולים ורישומי קבלה.

המחקר מראה בעיקר שבאינטראקציה מקוונת, ובמיוחד ברשתות החברתיות, האופן שבו משתמש מקיים אינטראקציה יכול בקלות להוביל את הצופים לזהותו האמיתית. לכן חיוני תמיד להיות זהירים לגבי מה שאתם עושים באינטרנט, תוך נקיטת מספר צעדים לשמירה על אנונימיות מוחלטת - לדוגמה, על ידי שימוש בכתובת דוא"ל או מספר טלפון נפרדים משאר חייכם. שני החוקרים קוראים לפלטפורמות המדיה החברתית להגביל את הגישה לנתונים שבינה מלאכותית יכולה לגשת אליהם, במיוחד כדי למנוע "גירוד", תכונה הנמצאת בשימוש נרחב על ידי מודלים של שפה כדי לאסוף כמה שיותר מידע לצורך אימון.

הערות

אָנָא כְּנִיסָה לַמַעֲרֶכֶת להשאיר תגובה.

רוצה לפרסם את הנושא שלך

הצטרף לקהילה גלובלית של יוצרים, עשה רווח מהתוכן שלך בקלות. התחל את מסע ההכנסה הפסיבי שלך עם Digbly עוד היום!

פרסם את זה עכשיו

מוצע עבורך