סגור
גג עמוד techtalk דסק

אתיקה בעידן כלכלת ה-AI - אינטרס מוסרי או מסחרי?

הרגולציה הבינלאומית סביב בינה מלאכותית אתית מתרחבת וחותרת לפתור בעיות יסוד של הוגנות והזדמנויות שוות הכרוכות בכלכלת ה-AI. הרגולציה מהווה כמובן התפתחות חיובית שמחייבת חברות וארגונים לבנות וליישם בינה מלאכותית אתית, שקופה והוגנת שטמונות בה גם תועלות מסחריות רבות. בחודש מרץ 2024 עצרת האו"ם אף קיבלה החלטה היסטורית המציבה כיעד לרתום את הבינה המלאכותית לרווחת האנושות וליעדי הקידמה הנכללים בתוכנית הארגון עד שנת 2030.
הרגולציה לא מתגבשת בחלל ריק אלא בעקבות דרישות חד משמעיות של צרכנים ברחבי העולם. סקר שנערך במגזר הקמעונאות בינואר 2024 חשף ש-90% מהצרכנים סבורים שיש לדרוש מהרשתות לחשוף את האופן שבו הן עושות שימוש בדאטה ביישומי AI. כמו כן, 87% סבורים שלצרכנים צריכה להיות גישה לנתונים שהרשתות אספו עליהם ואפשרות לבדוק אותם. ולבסוף, 80% סבורים שהרשתות חייבות לקבל מהם רשות מפורשת להשתמש בנתונים שלהם ביישומי AI .
כיום ארגונים מבינים כי בינה מלאכותית אתית איננה סוגייה מוסרית בלבד אלא יתרון מסחרי אסטרטגי. באמצעותו חברות מצמצמות או מבטלות סיכונים רגולטוריים ובה בעת בונות יחסי אמון עם לקוחותיהן הדורשים מהחברות שקיפות ואחריות ורוצים לדעת כיצד ועל בסיס מה המודלים שלהן מקבלים החלטות. המשימה שעומדת בפני החברות המסחריות היא מורכבת. לדוגמא, חברות הביטוח אוספות כמויות עצומות של נתונים כולל נתונים דמוגרפיים של הלקוחות, היסטוריית תביעות, מידע על כלי הרכב, על נכסים ועוד.
1 צפייה בגלריה
ארז ברק  CTO של חברת הפינטק ארניקס
ארז ברק  CTO של חברת הפינטק ארניקס
ארז ברק
(צילום: אלי דסה)
אלגוריתמים של בינה מלאכותית כמו מודלים של Machine Learning מנתחים את הנתונים ומזהים דפוסים וקורלציות ועל בסיסם חברות הביטוח יכולות לאמוד בצורה מדויקת יותר את הסיכון ולתמחר את הפוליסה בהתאם. הבעיה היא שסוגי הדאטה הנאספים על הלקוחות מתגוונים ומתרבים כל העת וכוללים בין היתר גיל, מין, אזור מגורים, התנהגות נהגים ונהגות על הכביש ועוד. כך אמנם משתדרגת כל העת היכולת להעריך סיכונים, להציע פוליסה מותאמת אישית המתומחרת בהתאם אך בה בעת גדל הסיכון להטיות ולאפליה. משתנים שעל פניו נראים ניטרליים עלולים לגרום להטיות שונות ולאפליה. איך נבטיח שזיהוי אזור המגורים של הנהג לא תעלה באופן אוטומטי את רמת הסיכון שלו ותייקר את הפוליסה?

האינטרס למנוע הטיות ב-AI

על מנת להתמודד עם ההטיות ב AI יש להטמיע הוגנות בתהליכים של קבלת החלטות, במספר שכבות שייושמו בצורה שיטתית באלגוריתמים שמקבלים החלטות בכל התחומים לרבות בנקאות, ביטוח, מוסדות אקדמיים, צבא וארגונים ביטחוניים הבוחנים מועמדים ועוד. הפרמטרים שחברות צריכות לאמץ הם:
1. שוויון דמוגרפי (demographic parity) שינטרל מידע אישי רגיש בתהליך קבלת ההחלטות האוטומטי.
2. מרכיב ההזדמנות השווה (equal opportunity) שחותר לתוצאות חיוביות בשיעור דומה בין קבוצות אוכלוסיה שונות.
3. שוויון ניבויי (predictive equality) שמבטיח שיעור דומה של תוצאות שליליות בין קבוצות אוכלוסיה שונות.
4. מרכיב הסיכוי השווה (equalized odds) המשלב בין כל המרכיבים הללו ומיישם שוויון הן בתוצאות החיוביות והן בשליליות. הוגנות ברמה האישית צריכה להבטיח שאנשים שונים יקבלו ניבויים דומים ללא תלות במאפיינים אישיים לא רלוונטיים.
יישום כלל המרכיבים הללו יאפשר לחברות לתעדף ולמדוד הוגנות במודלי הבינה המלאכותית שלהם לרבות בתחום הסגמנטציה ובחירת מדדים. לא מדובר בזיהוי שונות בלבד אלא בנקיטת צעדים ממשיים להתמודד עמה.
אמנם אתגר האתיקה במודלים של AI הוא מורכב ויישומו דורש מהחברות השקעה כספית משמעותית, תשומת לב ניהולית, התאמות טכנולוגיות והדרכה של הלקוחות, אך המשימה בהישג יד של כל חברה שבונה מודלים של בינה מלאכותית. בסופו של דבר, מי שבנה מודל AI מסוגל להשתמש בידע, בכלים ובפרקטיקות כדי לבצע בו כל שינוי נדרש, כפי שמדעני נתונים עושים כל העת במהלך הפעילות העסקית השוטפת. התאמה לרגולציה של אתיקה ב- AI היא כיום משימה בעדיפות עליונה הן לחברות והן למיליוני הלקוחות.

ארז ברק הוא CTO בחברת הפינטק Earnix