צוות בין-משרדי ממליץ: רגולציה מבוססת סיכונים לשימוש בבינה מלאכותית במגזר הפיננסי
צוות בין-משרדי ממליץ: רגולציה מבוססת סיכונים לשימוש בבינה מלאכותית במגזר הפיננסי
הצוות פרסם דו"ח ביניים להערות הציבור, לטובת גיבוש רגולציה מתאימה לשימוש ב-AI בשווקים הפיננסיים; "הצוות מדגיש את הצורך באימוץ גישה מבוססת סיכונים לפיה היקף הרגולציה יותאם לשירות ולהשפעתו על הלקוח"; הדו"ח יהיה פתוח להערות עד ל-15 בדצמבר
צוות בין משרדי מיוחד לבחינת שימושי בינה מלאכותית במגזר הפיננסי פירסם היום (ג') דוח ביניים להערות הציבור. מטרת הצוות, שהוקם בסוף 2022, היא להיערך לשימוש הגובר בבינה מלאכותית במגזר הפיננסי, ולעצב את עקרונות הרגולציה הפיננסית בנושא.
לצד היתרונות הרבים של השימוש בבינה מלאכותית בענייני פיננסים, קיים חשש שייעשה בטכנולוגיה שימוש להונאות, דיסאינפורמציה ופגיעה בפרטיות - ומכאן שיקולי הרגולציה בנושא. הצוות מורכב מנציגי משרד המשפטים, משרד האוצר, רשות התחרות, רשות ניירות ערך, רשות שוק ההון ובנק ישראל. הדו"ח יהיה פתוח להערות הציבור עד ל-15 בדצמבר.
נקודת המוצא של הצוות היא שיש לעודד פעילות AI בסקטור הפיננסי, בשל שורה של יתרונות - בין היתר המערכות והפחתת עלויות תפעול, שיפור איכות המוצרים והשירותים, הנגשת מוצרים פיננסיים לציבור רחב יותר וכן סיוע לגופים פיננסיים בציות להוראות ולרגולטורים פיננסיים באכיפה.
לצד זאת, טכנולוגיית AI מביאה עמה גם סיכונים בסוגיות של שקיפות, פרטיות ואמינות, זאת לצד סיכונים מיוחדים הנוגעים ליציבות פיננסית, למשל יצירה מכוונת של פעילות עדרית מסוכנת (כמו רכישה או מכירה של נייר ערך או משיכת כספים מהבנקים). זאת, לצד סיכוני סייבר, הונאות פיננסיות ודיסאינפורמציה. בנוסף, קיים גם חשש לפגיעה בתחרות, אם רק לגופים פיננסיים חזקים תהיה בפועל גישה למערכות אלו.
לפיכך, הצוות "מדגיש את הצורך באימוץ גישה מבוססת סיכונים לפיה היקף הרגולציה יותאם למהותיות השירות הפיננסי והשפעתו על הלקוח", כךנאמר בדו"ח.
בין ההמלצות המובאות: "צ'ט-בוט AI המספק שירות לקוחות בסיסי יידרש לעמוד בדרישות רגולטוריות מצומצמות יותר בהשוואה למערכת חיתום אשראי מבוססת AI, שלהחלטותיה השפעה משמעותית על הפרט", מציין הדוח.
המלצה נוספת נוגעת לבעיית "הקופסה השחורה": לא ניתן להסביר באופן מלא את תוצרי מערכות ה-AI. כלומר, מערכת שלא ניתן בהכרח להתחקות באופן מלא אחר הנימוקים להמלצותיה תשפיע באופן דרמטי על השוק הפיננסי. לשם כך, הצוות מבקש להבחין בין הסברתיות כללית לאופן שבו המערכת פועלת, לבין הסברתיות פרטנית הנוגעת להחלטות ספציפיות. המלצת הצוות היא להחיל חובת הסברתיות כללית, ולצד זאת חובת הסברתיות פרטנית תיקבע לפי קריטריונים שונים כגון האם הייתה מעורבות אנושית בתהליך.
מעורבות אנושית מציפה מתח מרכזי בעבודת ה-AI: ככל שנדרשת יותר מעורבות אנושית בתהליך, כך פעולת הבינה המלאכותית פחות יעילה. השאלה היא כיצד למצוא את האיזון הנכון בין השתיים. הצוות ממליץ על "מודל מדורג של מעורבות אנושית" - מודל כזה יכלול בקרה אנושית כללית, לצד מעורבות ישירה בקבלת החלטות שיסווגו בסיכון בינוני ומעלה.
מלבד הגדרת הסיכונים הכלליים, הדו"ח בחן באופן ספציפי שלושה תחומים, בהם כבר קיים בפועל שימוש בבינה מלאכותית: ייעוץ השקעות וניהול תיקים, אשראי במערכת הבנקאית וחיתום וביטוח.
בייעוץ השקעות וניהול תיקים, הדו"ח מציין כי לבינה מלאכותית יש יתרונות בהנגשת שירותי ייעוץ השקעות לקהלים רחבים. עם זאת, ישנם סיכונים מרכזיים כמו אי עמידה בחובות אמון וזהירות, סיכוני "משחקיות" שעלולים לעודד התנהגויות לא רצויות, פגיעה אפשרית באיכות השירות, וריכוזיות שעלולה להוביל לתלות במספר קטן של מערכות. אחת ההמלצות המרכזיות היא לעדכן את "הוראת שירותים מקוונים", שנקבעה ב-2016, הן בפן הטכני - ברמת המינוחים וההגדרות (בהוראה לא קיים המושג "בינה מלאכותית יוצרת" או "הסברתיות"), וכן ברמה המהותית - כגון הבהרת תפקידיו של בעל הרישיון בבדיקת תוצרי המערכת.
במה שקשור לחיתום אשראי, ההמלצה העיקרית היא להסתמך על הרגולציה הנוכחית, שהיא, לדעת הצוות, מתאימה גם לאתגרים שהבינה המלאכותית מציבה. לצד זאת, יש חשש מפני דחיפת אשראי בלתי מבוקרת, ולכן מוצע לשקול דרישות גילוי על שימוש ב-AI למטרות אלה כדי לספק שקיפות ללקוחות ולרגולטור.
בהקשר של חיתום וביטוח, הדו"ח מציין שתהליכי חיתום נועדו לוודא התאמה בין פרמיות הביטוח לסיכון המבוטח, תוך שימוש במודלים מתקדמים ש-AI עשויה לשפר. ההמלצה היא להמשיך להשתמש במסגרת האסדרה הקיימת לניהול סיכונים והגנה על הצרכן, כולל הגנת פרטיות, אך לעדכן את הרגולציה כאשר הטכנולוגיה מחייבת זאת, למשל בהיבטים של ניהול סיכוני מודל, הסברתיות, ויידוע הלקוחות על השימוש בטכנולוגיה בעת שימוש בצ'אט-בוטים.