סגור
גג עמוד techtalk דסק

להקדים תרופה למכה: הסברתיות למערכות בינה מלאכותית היא המפתח לשקיפות ואמון

היעדר רגולציה ברורה לתחום הבינה המלאכותית בישראל מאלץ חברות להגדיר לעצמן את גבולות המותר והאסור. בין "קופסאות שחורות" להבטחת שקיפות, הסברתיות הופכת לכלי קריטי למזעור סיכונים, שמירה על אמון הציבור ועמידה בדרישות הרגולציה המתפתחת

היעדר רגולציה ברורה לתחום הבינה המלאכותית בישראל מהווה אתגר משמעותי לפעילות החברות. כתוצאה מכך, כל חברה בתחום פעילותה נאלצת לקבוע בעצמה את גבולות המותר והאסור, בהסתמך על הדין הקיים בישראל, מגמות בארץ ובעולם, ומתוך ציפייה להתפתחויות עתידיות ברגולציה המתהווה. הכול בבחינת להקדים תרופה למכה כדי למנוע חשיפות משפטיות, למזער את הסיכונים הרגולטוריים ולשמור על אמון הציבור. מהי מידת הסברתיות הנדרשת בכל הנוגע לפעילות מערכות המשלבות בינה מלאכותית?
הסברתיות בבינה מלאכותית מתייחסת ליכולת של מערכת בינה מלאכותית להסביר או לפרש את הפעולות, ההחלטות או התחזיות שהיא מייצרת בצורה שהמשתמשים יוכלו להבין. זהו תחום מרכזי בממשק שבין בינה מלאכותית למשתמשים, שכן הוא נועד להגדיל את השקיפות, האינטגרציה והאמון במערכות בינה מלאכותית. ההסברתיות משרתת אינטרסים רגולטוריים, צרכניים וחברתיים. לדוגמה הסברתיות לגבי האופן בו מערכת בינה מלאכותית קיבלה החלטה בנוגע למתן אשראי עבור אדם, תאפשר למוסד פיננסי העושה שימוש במערכת להפעיל בקרה עליה. הרגולטור יוכל לוודא שהגוף המפוקח עומד בדרישות הדין. הצרכן יוכל להבין מדוע התקבלה החלטה כזו או אחרת בעניינו ולהשיג עליה לפי הצורך.
מכיוון שמודלים רבים של בינה מלאכותית נחשבים ל"קופסאות שחורות", כלומר הם מורכבים כל כך שקשה לדעת בדיוק כיצד הם מגיעים להחלטות, היכולת להסביר את התהליך הופכת למורכבת ממש, במיוחד כאשר מדובר בהחלטות קריטיות כמו בתחומים של בריאות או פיננסים. לכן הסברתיות מאפשרת לרגולטורים ולמשתמשים להבין את הגורמים שהובילו להחלטה מסוימת, לזהות אם קרתה טעות, להבטיח שהשימוש במערכת הוא אתי ולהפיק תובנות נוספות מהמערכת. היא גם מסייעת בעמידה בתקני רגולציה ובשמירה על שקיפות ואחריות בחברות השואפות להטמיע בינה מלאכותית במוצריהן ובשירותיהן.
1 צפייה בגלריה
עו"ד איתן צפריר
עו"ד איתן צפריר
איתן צפריר
(צילום: יח"צ)
חשוב להבדיל בין הסברתיות כללית לפרטנית: הסברתיות כללית (Global Explainability) מסבירה כיצד המודל פועל בצורה רחבה בכללותו. לדוגמה, הסבר כללי יכול לכלול מהו התהליך שהמודל משתמש בו כדי להחליט או לחזות תחום מסוים, כמו תהליכי סיווג או חיזוי.
הסברתיות פרטנית (Local Explainability) מתייחסת להסברים כיצד המודל מקבל החלטות עבור מקרה ספציפי או נתון בודד. לדוגמה, אם מודל חזה שפריט מסוים מתאים או לא מתאים לקטגוריה מסוימת, ההסבר הפרטני ידגים איזו תכונה או קלט היה משפיע הכי הרבה בהגעה להחלטה הזו.
אי מילוי דרישת ההסברתיות במערכות בינה מלאכותית עשוי להוביל לחשיפות מגוונות. משתמשים עשויים לחוש פגיעה מהחלטות שהתקבלו על ידי מערכות בינה מלאכותית שאינה מספקת הסברים ברורים, ובכך לחשוף את הארגון לתביעות בגין רשלנות או הפליה. גופים רגולטוריים עשויים להטיל קנסות על חברות שאינן עומדות בדרישות הסברתיות שהן חלק מהרגולציה הקיימת.
אי עמידה בדרישות להסברתיות יכולה להביא לאובדן אמון מצד המשתמשים, דבר שעשוי להשפיע על המותג, המוניטין והכנסות החברה. במקרים שבהם קיימת מחלוקת על החלטות שהתקבלו באמצעות בינה מלאכותית היעדר הסברתיות יכול להקשות על החברה להגן על עצמה בבתי משפט, כאשר אין להן הוכחות בעלות ערך להסביר את תהליך קבלת ההחלטה. תעשיות, כמו פיננסים ובריאות, מציבות דרישות גבוהות להסקה והסברה של מערכות, ואי קיום הדרישות יכול להוביל לאי-עמידה בתקן.
לא קל להגיע לרמה נכונה של הסברתיות. הטכנולוגיה יכולה להיות לא בשלה. היא יכולה להתנגש עם החובה לשמור על סודות מסחריים. דרישת הסברתיות גורפת יכולה לעכב או אף למנוע כניסה של טכנולוגיה חדשה. על החברות להבין מהי מידת הסיכון שבמערכת, מהי חשיבות ההחלטה עבור האדם שלגביו ניתנה ההחלטה ומידת המעורבות של הבינה המלאכותית בקבלת ההחלטה.
גם במקום שצריכה לחול דרישת הסברתיות פרטנית, יש להכיר בחלופות אחרות - כגון בקרה הדוקה על תוצאות המערכת או חלופות שירות המוצגות ללקוח במקום מערכת בינה מלאכותית. בהינתן חלופות מפצות הולמות יפחת הצורך בהסברתיות פרטנית. כמו-כן, הסברתיות פרטנית לא תידרש מקום בו הטכנולוגיה היא רק גורם מסייע לקבלת ההחלטה.
עו"ד איתן צפריר הוא שותף רגולציה במשרד פירון וראש ועדת הרגולציה של לשכת עורכי הדין