סגור
גג עמוד techtalk דסק

סוכן AI אישי: החבר הטוב ביותר או האיום המסוכן ביותר?


בכל דיסאינפורמציה ברשת היתה עד היום גם מידה של מעורבות אנושית, אבל כדאי להתכונן לעידן חדש: הסוכנים האישיים מבוססי GenAI יהיו אוטונומיים, הם יקבלו משימה שהוגדרה להם, ומרגע זה יפעלו באופן עצמאי ליצירת יחסי אמון עם בני אנוש, במטרה להפיץ דיסאינפורמציה, להשפיע או לגנוב.
בינה מלאכותית יוצרת (GenAI) עומדת מאחורי קמפיינים רבים של דיסאינפורמציה ברשתות החברתיות, במטרה להשפיע על דעות או ליצור קונפליקטים בקרב בוחרים. אבל אם מידע שקרי מגיע ממישהו שאנחנו מכירים או סומכים עליו, יש סיכוי גבוה יותר שנאמין לו ונפעל בהתאם.
בעתיד הקרוב, נראה את תחושת האמון של בני אנוש מנוצלת בצורה חסרת תקדים. התקדמות בטכנולוגיית בינה מלאכותית (AI) תאפשר לסוכנים אישיים מבוססי בינה מלאכותית הפועלים באופן אוטונומי, לבנות קשרים עם אנשים לאורך חודשים. מיליונים של סוכנים כאלו יפעילו הנדסה חברתית ממוקדת בהיקפים שיכולים לאיים על הבחירות לנשיאות בארה"ב כבר בשנת 2028, ולהגביר אף יותר את הקיטוב בין האוכלוסיות השונות.
בעוד שבוטים וכלים אוטומטיים בעבר נשלטו ישירות על ידי גורם אנושי, סוכנים אלה פועלים ללא התערבות אנושית, ומשתמשים בפרופילים פסיכולוגיים ובנתונים אישיים כדי להנדס מסרים ממוקדים ואפקטיביים. היכולת שלהם לבצע אינטראקציות חכמות ומותאמות אישית הופכת אותם למכונות השפעה מתקדמות, עם פוטנציאל להשפיע על מיליוני אנשים בו זמנית.

סוכני AI אישיים ומסע ההשפעה הבא

עד כה, רובנו התרגלנו לחשוב על מתקפות סייבר כעל תהליך טכני או כעל הודעות פישינג זדוניות המכוונות להשגת נתונים אישיים. אבל הדור הבא של מתקפות יפעל מחוץ למודל הקלאסי של ,Human-in-the-Loop כאשר הסוכנים מבוססי ה-AI ייבנו קשרים ארוכי טווח עם אנשים.
לדוגמה, דמיינו "חבר דיגיטלי" שפונה אליכם ברשתות החברתיות או באפליקציות הודעות. אותו חבר משוחח איתכם במשך חודשים, משתף אתכם ב"תובנות" ומעורר את האמון שלכם. בשלב מסוים, אותו סוכן יכול לשלב מסרים ממוקדים או דיסאינפורמציה שנועדו להשפיע על החלטותיכם — אם זה בבחירות או בעבודה. מדובר באסטרטגיה שמזכירה את הונאות "פיטום חזירים", אך כאן המנגנון האוטומטי המתקדם חוסך את הצורך במעורבות אנושית ומספק רמת אמינות גבוהה בהרבה.

השפעה על בחירות בארצות הברית

כיצד נראית השפעה כזו בקנה מידה רחב? בחירות בארצות הברית, ובעיקר במדינות מפתח כמו פנסילבניה, מהוות דוגמה קלאסית. בוחרים מתנדנדים במקומות כאלו יכולים להפוך למטרה עיקרית של סוכנים אישיים. אותם סוכנים יפיצו מסרים מזויפים ומותאמים אישית, למשל על עמדות מועמד בנוגע לנושאים רגישים כמו תעשיית האנרגיה או איכות הסביבה.
מכיוון שהסוכן הדיגיטלי מקיים קשרי אמון אמיתיים עם הבוחרים, מסרים אלו נתפסים כאמינים הרבה יותר מהודעות רשתיות מזויפות המגיעות מגורמים לא מזוהים. התוצאה היא פוטנציאל ממשי להטות את תוצאות הבחירות — והנזק לאמון הציבור יהיה כבד מנשוא.
1 צפייה בגלריה
אביחי נתן סגן נשיא בכיר וראש תחום AI דאטה ומחקר סייברארק
אביחי נתן סגן נשיא בכיר וראש תחום AI דאטה ומחקר סייברארק
אביחי נתן
(צילום: סייברארק)
הסכנה לבכירים בארגונים
הבוחרים לא יהיו היעד היחיד — מנהלים בכירים ועובדים בדרגות גבוהות יהיו יעד לתקיפות של העברת כספים (next-gen money transfer), גניבת קניין רוחני או ריגול תעשייתי באמצעות סוכנים אישיים מבוססי בינה מלאכותית. דמיינו מנכ"ל שמקבל פנייה אישית מ"חבר" או "עמית לעבודה" המבקש עזרה דחופה, או מנהל שמוסר מידע רגיש בעקבות התקשרות שהחלה כחברות דיגיטלית תמימה. מקרים של העברת כספים או גניבת קניין רוחני הפכו למורכבים יותר וקלות יותר לביצוע בזכות האוטונומיה של סוכני ה-AI.
מקרה אמיתי שהתרחש בעבר, בו מנכ"ל בנק נפל קורבן להונאה שאילצה אותו להעביר מיליונים לקריפטו, מראה עד כמה מתקפות כאלו אפקטיביות. התקדמות ביכולות הבינה המלאכותית רק תגדיל את היקף הבעיה ואת יכולת ההתחזות האמינה.

האתגר בזיהוי ומניעה

זיהוי מתקפות סייבר הופך למאתגר יותר כאשר מדובר בסוכן דיגיטלי מתקדם. בניגוד למתקפות פישינג מסורתיות, כאן מדובר במערכת מתוחכמת, הפועלת ללא הפסקה וללא הצורך בהתערבות אנושית.
לדוגמה, סרטוני 'דיפ פייק' שתפסו כותרות בשנים האחרונות מדגישים את היכולת של AI לזייף מציאות בצורה אמינה. בסרטון מפורסם מ-2023, הוצגה הסנאטורית אליזבת וורן כשהיא אומרת דברים שמעולם לא אמרה. המקרים הללו הם רק קצה הקרחון.

כיצד נוכל להגן על עצמנו?

התמודדות עם סוכנים אישיים מבוססי AI מחייבת שילוב של מודעות, חינוך ושיטות עבודה מעשיות.
• אימות קונטקסטואלי: הרגל פשוט כמו בדיקת ההיגיון שמאחורי פנייה. אם מישהו מבקש מידע רגיש או כספים בשעה חריגה — כדאי לעצור ולברר.
• שימוש בכלים טכנולוגיים: ארגונים חייבים להשקיע במערכות לאימות זהות ובאלגוריתמים שיזהו אינטראקציות חשודות.
• שינוי תרבותי: חינוך הציבור לזיהוי איומים ולהתנהלות זהירה ברשת הוא קריטי.

עתיד האמון האנושי

קצב התקדמות הבינה המלאכותית, יחד עם שיפורים ביכולות 'דיפ פייק' ודיסאינפורמציה, מחייב אותנו לחשוב מחדש על המושג "אמון". ככל שסוכנים אישיים מבוססי AI יהפכו לחלק מהמציאות שלנו, נידרש להתמודד עם שאלות עמוקות בנוגע לשימור האותנטיות וההגנה על הבחירות והמידע שלנו.
בעידן שבו AI הופך לכלי מרכזי במערכות חברתיות ועסקיות, האחריות לזיהוי ולהתמודדות עם האיומים מוטלת עלינו – כחברה וכיחידים. הבחירות שלנו, הביטחון שלנו והאמון שלנו תלויים בכך.
אביחי נתן הוא סגן נשיא בכיר וראש תחום AI, דאטה ומחקר בסייברארק