לא לוקחים סיכון: הרגולטור כבר מפחד מבינה מלאכותית
לא לוקחים סיכון: הרגולטור כבר מפחד מבינה מלאכותית
לראשונה הרשויות בארה"ב ובאירופה מגדירות את התערבות הבינה המלאכותית בשוק הפיננסי כסיכון, וקובעות כללים להתממודד איתו. בינתיים בישראל התגובה מנומנמת, ונעדרת מהלכים אופרטיביים מול היכולת הטכנולוגית החדשה
רגולטורים פיננסיים אמריקאים מתחילים להתייחס ברצינות לבינה מלאכותית. בימים האחרונים משרד האוצר האמריקאי ורשות ני"ע האמריקאית (SEC) הביעו דאגה בנוגע לאופן שבו מנהלים בשוק הפיננסי מתכננים או כבר משלבים מערכות של בינה מלאכותית בעבודתם ובארגוניהם, זאת לאור הפופולריות הגוברת של כלים כמו ChatGPT של OpenAI ובארד של גוגל, שניהם משווקים מוצרים מתקדמים בתשלום לתאגידים.
שרת האוצר של ארה"ב ג'נט ילן הגדירה לראשונה בינה מלאכותית כסיכון עם הצגת הדו"ח השנתי של המועצה לפיקוח על יציבות פיננסית (FSOC), שבראשה היא יושבת. "המועצה מזהה את השימוש בבינה מלאכותית בשירותים פיננסיים כנקודת תורפה במערכת הפיננסית", אמרה, "המועצה תנטר טכנולוגיות כדי להגיב לסיכונים מתעוררים. תמיכה בחדשנות אחראית בתחום יכולה לאפשר למערכת הפיננסית לקצור יתרונות, אך יש גם עקרונות וכללים לניהול סיכונים שצריך ליישם".
להפיק תוצאות פגומות
בדו"ח שפרסמה FSOC הגדירה את הבינה המלאכותית כאחד מ־14 גורמי סיכון ליציבות השווקים. "המועצה ממליצה לעקוב אחר ההתפתחויות המהירות, לרבות בינה מלאכותית גנרטיבית, כדי להבטיח שמבני פיקוח עומדים בקצב או מקדימים את הסיכונים".
FSOC שנוסדה אחרי המשבר הפיננסי של 2008 מציינת בין הסיכונים: אבטחת סייבר, סיכוני ציות ובעיות פרטיות, וגם סוגיות חדשות שעולות מהשימוש במודלים של בינה מלאכותית גנרטיבית. "שגיאות והטיות נתונים של בינה מלאכותית עלולות להפוך לקשות עוד יותר לזיהוי ולתיקון ככל שהטכנולוגיות מפתחות במורכבותן, מה שמדגיש את הצורך בערנות מצד מפתחי הטכנולוגיה, חברות המגזר הפיננסי והרגולטורים המפקחים", ציינו ב־FSOC והדגישו גם את הסכנה שבנטיית מודלים אלו להמציא או להפיק תוצאות פגומות שנמסרות באופן משכנע כעובדות.
מלבד שרת האוצר במועצת FSOC יושבים כל הרגולטורים הפיננסים הגדולים במדינה בניהם יו"ר הפדרל רזרב ג'רום פאוול, מנהל הלשכה להגנה פיננסית על הצרכן רוהיט צ'ופרה ויו"ר רשות ני"ע גארי גנסלר.
במאי הזהיר גנסלר כי אם התחום לא יפוקח כראוי ובמהרה הוא יוביל "באופן בלתי נמנע" למשבר פיננסי בעוד עשור. במיוחד ציין גנסלר את חששותיו כי מוסדות פיננסיים רבים יבססו את החלטותיהם על מודלים של בינה מלאכותית, מה שיביא להתנהגות עדר. "המשבר ב־2027", דמיין שיגידו, "היה בגלל שהכל נשען על רמת בסיס אחת, מה שנקרא רמת הבינה המלאכותית הגנרטיבית, ועליה בנויה קבוצה של אפליקציות פינטק", אמר.
בדו"ח שפרסמה המועצה לפיקוח על יציבות פיננסית בארה"ב היא מזהירה ששגיאות והטיות נתונים של בינה מלאכותית עלולות להפוך לקשות לזיהוי ותיקון
ביולי הציעה הרשות כללים חדשים שיחייבו ברוקרים ויועצי השקעות לנקוט בצעדים כדי להתמודד עם ניגודי עניינים הקשורים לשימוש שלהם בניתוח חזוי וטכנולוגיות דומות. "המודלים של ניתוח הנתונים היום מספקים יכולת הולכת וגוברת לבצע תחזיות לגבי כל אחד מאיתנו כפרטים", אמר בזמנו גנסלר, "זה מעלה חשש להיווצרות קונפליקטים במקרה שבו יועצים או ברוקרים מבצעים אופטימיזציה כך שהאינטרסים שלהם יהיו קודמים לאינטרסים של המשקיעים שלהם".
באוקטובר הפיץ הנשיא ג'ו ביידן צו נשיאותי לניהול, פיתוח ושימוש בבינה מלאכותית באופן אחראי, וקידום גישה מתואמת כלל ממשלתית לכך. בצו ביידן מנה את העקרונות וסדרי העדיפויות להגשמת מטרות אלו לרבות פיקוח על כך שהטכנולוגיה תהיה בטוחה ומאובטחת, קידום חדשנות והגנת האינטרסים של האמריקאים המשתמשים בה. "הממשלה הפדרלית תאכוף אמצעי הגנה מתאימים מפני הונאה, הטיה לא מכוונת, אפליה, הפרות בפרטיות ופגיעות אחרות", ציין והוסיף כי על האוצר לפרסם דו"ח בתוך 150 ימים על "שיטות עבודה מומלצות עבור מוסדות פיננסיים לניהול סיכוני אבטחת סייבר ספציפיים לבינה מלאכותית". כאמור כעת הגדיר ה־FSOC את הבינה המלאכותית "סיכון" ליציבות המערכת.
במקביל שורת מוסדות פיננסיים גדולים בארה"ב כבר הצהירו כי הם משלבים כלי בינה מלאכותית בעבודתם כמו למשל חברת ההשקעות פידילטי שרואה "פוטנציאל" בהפעלת הכלים בתחום ניהול העושר. בגולדמן זאקס הודיעו לפני חודש כי הם עובדים על כ־12 פרויקטים שמשלבים בינה מלאכותית גנרטיבית. מורגן סטנלי משיקה בשיתוף עם OpenAI בוט עזר ליועצים פיננסיים, בעוד שג'יי.פי מורגן נמצאת בתהליכי גיוס מאסיביים לתפקידים חדשים הקשורים בבינה מלאכותית. מנכ"ל החברה ג'ימי דיימון אמר כי הוא מאמין שהטכנולוגיה תסייע לקצר את שבוע העבודה ל־3.5 ימים בלבד.
פעילות זו הביאה את הרשויות לצאת בבחינה מעמיקה של הנושא. לאחרונה חשף ה"וול סטריט ג'ורנל" כי ה־SEC פנתה ליועצי השקעות וביקשה מהם גילוי מידע לאופן שבו הם משלבים או משתמשים בכלי בינה מלאכותית בעבודתם. בהליך המכונה סוויפ (Sweep) ביקשה הרשות, בין היתר, מידע על האלגוריתמים שמשמשים את היועצים בניהול תיקי לקוחות, שימוש בספקים צד שלישי ושאלות הנוגעות לציות.
בצידו האחר של האוקיינוס האיחוד האירופי כבר השלים חקיקה בנושא בינה מלאכותית, שצפויה להיות המתקדמת מסוגה בעולם. על החקיקה עובדים כשלוש שנים ונוסחה הסופי הוא תוצר של דיונים ארוכים ופשרות רבות שנעשו מול החברות המובילות בתחום. החקיקה מסדירה בפירוט את האופן שבו ניתן לפרוס את הטכנולוגיה, לאסוף נתונים ולעבד אותם, ומפרטת את ההגנות שחייבות חברות להעמיד לטובת הציבור, לרבות החובה להיות מסוגלות להסביר את תוצאות והחלטות המערכות. החקיקה צפויה לעבור באביב הקרוב ולאפשר שנתיים של התאמות עד חובת ציות.
בלי להציע פתרונות
בינתיים בישראל פועלים בנמנום מרשים. השבוע פרסם משרד החדשנות, המדע והטכנולוגיה בשיתוף עם משרד המשפטים מסמך שתכליתו להנחות את משרדי הממשלה בפעילותם בנושא. "לאחר השלמת עבודת מטה מקיפה ומקצועית, החלטתי לאמץ את מסקנותיו של המסמך שעניינו מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית בישראל" מסר השר אופיר אקוניס. "בכוונתי לקדם החלטת ממשלה שתאפשר את אימוץ המדיניות, תנחה את הרגולטורים לפעול בהתאם לה ותאפשר את יישומה.
אולם המסמך עצמו לא כולל מהלכים מפורטים, ספציפיים ומתקדמים כפי שכבר מוצעים באיחוד האירופי או בארה"ב, כפי שגם המסמך ממשרד המדע מדגיש בעצמו: "יצוין פעם נוספת כי המסמך לא מתיימר להציע פתרונות מפורטים לאתגרים הנובעים מהשימוש בטכנולוגיית הבינה המלאכותית, לקבוע הסדרים מפורטים או מתודולוגיה סדורה לעיצוב הסדרים שכאלו, או להכריע בשאלות כבדות המשקל הנוגעות לתוכן הרגולציה בענפים השונים או באופן רוחבי", מסכמים במסמך בן 124 העמודים. "עקרונות המדיניות הרגולציה והאתיקה, וההמלצות ליישומן המוצעות במסמך זה, נועדו לקדם תהליך בתוך הממשלה".