ממשל ארה"ב: "מערכות בינה מלאכותית מייצרות סיכונים לשווקים פיננסיים וליציבותם"
ממשל ארה"ב: "מערכות בינה מלאכותית מייצרות סיכונים לשווקים פיננסיים וליציבותם"
כך מתריעה המועצה המפקחת ליציבות פיננסית בארה"ב בדו"ח השנתי. על פי הדו"ח, מערכות כמו ChatGPT של OpenAI ובארד של גוגל עלולות לייתר תשובות שכוללות מידע שגוי או פגום, שמוצג בצורה משכנעת ואמינה למראה
מערכות בינה מלאכותית (AI) מייצגות סיכון הולך וגובר לשווקים פיננסיים וליציבותם – כך מתריע גוף של מחלקת האוצר של ארה"ב, שמרכז את הרגולטוריים הפיננסיים והכלכליים המובילים במדינה. "ל-AI יש פוטנציאל להגדיל את היעילות ואת החדשנות, אבל הטכנולוגיה גם מציגה סיכונים מסוימים, ובהם סיכוני בטיחות ויציבות וסיכונים לצרכנים", נכתב בדו"ח השנתי של הגוף, שפורסם ביום חמישי.
הגוף, המועצה המפקחת ליציבות פיננסית (Financial Stability Oversight Council, FSOC), הוקם ב-2010 כחלק מלקחי המשבר הכלכלי הגדול שהחל ב-2008. תפקידה המרכזי של המועצה הוא להעריך את הסיכונים השונים שנשקפים למערכות הפיננסיות של ארה"ב והעולם, ולהציע דרכים למתן אותם. בראש המועצה עומדת מזכירת האוצר של ארה"ב, ג'נט ילן, וחברים בה ראשי כל גופי הרגולציה הפיננסית והכלכלית המובילים בממשל הפדרלי, ובהם יו"ר הפדרל ריזרב, יו"ר ה-SEC ויו"ר התאגיד הפדרלי לביטוח פיקדונות (FDIC). הדו"ח השנתי של המועצה ממפה את הסיכונים השונים שנשקפים למערכת הפיננסית. הדו"ח ל-2023, שפורסם בשבוע שעבר, מנה בין סיכונים אלו, לראשונה, גם השלכות אפשרויות של מערכות בינה מלאכותית.
שלא במפתיע, חלק ניכר מהאזהרות נוגע למערכות בינה מלאכותית גנרטיבית, כמו ChatGPT של OpenAI ובארד של גוגל. "מערכות אלו מייצרות סיכונים בהיבטים של אבטחת מידע, הגנת צרכנים ותחומים אחרים של ציות רגולטורים", נכתב בדו"ח. בהקשר זה מציין הדו"ח את הנטייה של מערכות אלו לייתר תשובות שכוללות מידע שגוי או פגום, אך שמוצג בצורה משכנעת ואמינה למראה. "'הזיות' אלו יכולים להופיע בפלט בעל ניואנסים רבים, שהערכת אמינותו לא תמיד תהיה פשוטה וישירה וייתכן שתדרוש מומחה להערכה ראויה של מידת הדיוק. בנוסף, ייתכן שמערכות AI מסוימות לא יספקו תשובות עקביות לאורך זמן, גם במענה לשאילתות זהות או דומות. במודלים מסוימים, משתמשים אולי לא יידעו את המקור לתשובה, או איזה משקל ניתן למקורות השונים, ולמוסדות פיננסיים אולי לא תהיה הבנה או שליטה מלאות של הנתונים שבהם נעשה שימוש".
סיכונים נוספים שמציינת המועצה נובעים ממבנה ה"קופסה השחורה" של מערכות ה-AI רבות, שכתוצאה ממנו גם מפתחי המערכות עצמם לא יודעים כיצד הן מקבלות את ההחלטות השונות שהן מספקות. "חוסר היכולת להסביר יכול להקשות להעריך את החסינות של המערכות, ומגדיל את חוסר הוודאות לגבי התאימות והאמינות שלהם", נכתב בדו"ח. "הדבר יכול להוביל ליצירת תוצאות מוטות או לא מדויקות, מה שעלול להשפיע על שיקולי הגנת צרכן כמו הלוואות הוגנות. בלי עיצוב, בחינה ובקרה נאותים, AI יכולה להוביל לפגיעה ישירה בצרכנים".
כמענה לסיכונים אלו, ממליצה המועצה לנטר את ההתפתחויות המהירות בתחום הבינה המלאכותית בכלל ובינה מלאכותית גנרטיבית בפרט, על מנת לזהות מבעוד מועד סיכונים מגיחים למערכת הפיננסית. "כדי לתמוך במאמצים אלו, המועצה ממליצה למוסדות פיננסיים ולרשויות רגולטוריות לטפח מומחיות ויכולות לנטר חידושים ושימושים ב-AI ולזהות סיכונים מגיחים", נכתב בדו"ח. "המועצה גם תומכת במאמצי קבוצת מומחי הסייבר של ה-G7 לתאם מדיניות הגנת סייבר בין המדינות החברות ולהתמודד עם האופן שבו טכנולוגיות מגיחות, כמו AI ומחשוב קוונטי, משפיעות על המערכת הפיננסית העולמית".