מחקר: פושעים והאקרים עושים שימוש ב-ChatGPT כדי לייעל מתקפות סייבר
מחקר: פושעים והאקרים עושים שימוש ב-ChatGPT כדי לייעל מתקפות סייבר
לפי מחקר של מיקרוסופט ו-OpenAI קבוצות תקיפה במימון רוסיה, קוריאה הצפונית, איראן וסין עושות שימוש בכלי AI דוגמת ChatGPT על מנת לחקור מטרות אפשריות ומנגנוני אבטחה שהם יכולים לעקוף
פושעי סייבר והאקרים כבר עושים שימוש בכלי בינה מלאכותית גרנטיבית (GenAI) על מנת לייעל ולשפר את מתקפות הסייבר שלהם – כך לפי מחקר משותף של מיקרוסופט ו-OpenAI. המחקר זיהה שקבוצות תקיפה במימון רוסיה, קוריאה הצפונית, איראן וסין עושות שימוש בכלים דוגמת ChatGPT על מנת לחקור מטרות אפשרויות, לשפר קוד של כלי תקיפה ולפתח שיטות הנדסה חברתית.
"ארגוני פשע מקוונים, שחקנים במימון מדינות וגורמים אחרים חוקרים ובוחנים טכנולוגיות AI שונות בניסיון להבין את הפוטנציאל שלהן לפעילותן ואת מנגנוני האבטחה שהם יכולים לעקוף באמצעותם", נכתב בפוסט שהתפרסם בבלוג הרשמי של מיקרוסופט בפוסט נפרד של OpenAI כתבה החברה שהמחקר עם מיקרוסופט אפשר לשבש את פעילותן של חמש קבוצות תקיפה במימון מדינות: שתי קבוצות שקשורות לסין, קבוצה במימון קוריאה הצפונית, קבוצה במימון רוסיה וקבוצה במימון איראן, וסגרה את חשבונותיהן.
השימוש שעשו הקבוצות השונות בכלי GenAI המתמקד בעיקר באיסוף מודיעין, שיפור יכולות הנדסה חברתית ושכלול הקוד של כלי התקיפה שלהן. כך, למשל, קבוצת התקיפה הרוסית Forest Blizzard השתמשה במודלי שפה גדולים (LLMs) כדי לחקור ולהבין פרוטוקולים של תקשורת לוויינית וטכנולוגיית ראדר, אולי כחלק מניסיון לבצע מתקפת סייבר נגד מטרות אלו. כן השתמשה הקבוצה ב-LLM לצורך ביצוע משימות תכנות בסיסיות, כדאי לבצע אוטומציה של חלקים שונים בפעילותה.
Emerald Sleet השתמשה במודלים כדי לחקור וללמוד על חולשות שנחשפו במערכות מחשוב ובמסגרת תחקיר לאיתור מטרות אפשרויות, באמצעות זיהוי מכוני מחקר, גופי ממשל ומומחים לקוריאה הצפונית, תוך מיקוד בתוכנית הנשק הגרעיני של המדינה. כן השתמשה הקבוצה ב-LLM כדי לסייע לה בניסוח ויצירת תוכן שישמש למתקפות פישינג ממוקדות נגד המטרות שזוהו, ובשיפור הקוד של כלי התקיפה שלה.
Crimson Sandstorm האיראנית עשתה שימוש בכלי הבינה המלאכותית על מנת ליצור אימיילי פישינג, כולל אחד שהתחזה לסוכנות פיתוח בינלאומית ואחר שניסה לפתות פעילות פמיניסטיות בולטות לאתר זדוני שנוצר על ידה. כן השתמשה בקבוצה בכלים על מנת לקבל סיוע בפיתוח קוד שיסייע למנוע זיהוי של כלי התקיפה שלה ויאפשר לה לשבש פעילות של תוכנות אנטי-וירוס.
הקבוצה הסינית Salmon Typhoon השתמשה בכלים כדי לחקור נושאים דוגמת סוכנויות מודיעין בינלאומיות, פרטים בולטים, סוגיות מקומיות ואיומי סייבר אחרים, וכן כדי לפתור שגיאות בקוד כלי התקיפה שלה ולתרגם מסמכים טכניים. Charcoal Typhoon הסינית עשתה שימוש ב-GenAI על מנת לחקור ולהבין טכנולוגיות, פלטפורמות וחולשות, וככלי מסייע בתרגומים כחלק ממאמצים ליצור קשר ולהשפיע על מטרות.
"רוב האנשים משתמשים במערכות שלנו כדי לשפר את חיי היומיום שלהם", נכתב בפוסט של OpenAI. "כמו שקורה במערכות אחרות, יש קומץ של שחקנים זדוניים שמחייבים תשומת לב עקבית על מנת שכולם יוכלו להמשיך להנות מההטבות. למרות שאנחנו פועלים על מנת למזער את השימוש לרעה מצד שחקנים שכאלו, לא נוכל לעצור כל מקרה. באמצעות חדשנות, חקירות ושיתוף פעולה אנחנו מקשים על שחקנים זדוניים לפעול בחשאי ומשפרים את החוויה בעבור כולם".