בינה מלאכותית לזיהוי שקרנים? חברת הביטוח למונייד ספגה ביקורת עקב ציוץ
בינה מלאכותית לזיהוי שקרנים? חברת הביטוח למונייד ספגה ביקורת עקב ציוץ
חברת הביטוח הדיגיטלי צייצה כי ההקלטות של לקוחותיה עוברות ניתוח "כדי לזהות סימנים לא ורבליים שחברות ביטוח מסורתיות לא יעלו עליהם"; בעקבות הביקורת היא הבהירה: "לא משתמשים בבינה מלאכותית כדי לדחות תביעות או לבטל פוליסות"
חברת הביטוח הדיגיטלי למונייד הדגישה כי אינה משתמשת בבינה מלאכותית כדי לדחות תביעות או לבטל פוליסות על בסיס המאפיינים של האנשים. ההבהרה הזו התפרסמה בעקבות ציוץ שבחברה הגדירו כ"מנוסח בצורה לא טובה", שהוביל לביקורת רבה כלפיה באינטרנט.
הלקוחות שמגישים תביעות מתבקשים להעביר סרטונים שבהם הם מסבירים מה קרה. בציוץ מעורר הסערה טענה החברה כי ההקלטות הללו עוברות ניתוח לזיהוי הונאות על ידי תוכנות בינה מלאכותית כדי "לזהות סימנים לא ורבליים שחברות ביטוח מסורתיות לא יעלו עליהם".
הטענה הזו יצרה סערה מקוונת והובילה למבול של ציוצים המאשימים את החברה באפליה על בסיס גזע ומאפיינים אחרים.
בלמונייד מחקו את הציוץ ובפוסט בבלוג הודו שבינה מלאכותית "הציגה הטיות בקהילות שונות", ולפיכך הדגישו כי פעולות כמו "דחיית תביעות או ביטול פוליסות" לעולם לא מבוצעות על ידי בינה מלאכותית.
ההתנפלות על למונייד מגיעה על רקע ביקורת גוברת לאחרונה כלפי חברות הטכנולוגיה על היחס שלהן לנשים ולמיעוטים. אחת הטענות העיקריות היא שבינה מלאכותית חשופה להטיות ולדעות קדומות מצד האנשים שמתכננים את התוכנות ומטמיעים אותן.