מי אחראי כשה-AI משתגע?
מי אחראי כשה-AI משתגע?
לאחרונה פורסם מקרה שבו משתמש שביקש עזרה בשיעורי בית מאפליקציית Gemini של גוגל קיבל תגובה שהפכה במהרה לוויראלית: המלצה אישית להתאבד. האירוע העלה שאלות נוקבות: מה קרה כאן? ולמי יש אחריות על תגובות כאלה?
קל לפטור את המקרה כתקלה טכנית. אחרי הכול, אפילו מערכות AI מתקדמות אינן חסינות מטעויות. אבל הבעיה אינה רק ב"תקלה" בתוכנה. הבעיה המרכזית היא שחברות כמו גוגל יוצרות ציפייה שהכלים שלהן אמינים, בטוחים ואפילו "אנושיים" ולכן התגובה של הצ'אטבוט זעזעה רבים והפכה להיות כל כך ויראלית.
הרשת מלאה בסיפורים על טעויות, כמו הצ'אטבוט של אייר קנדה שאישר לנוסע לבטל טיסה בדיעבד. החברה סירבה להחזיר את הכסף בטענה שהצ'אטבוט טעה בפירוש מדיניות הביטול. בית המשפט קבע שהחברה אחראית לכל מידע שנמסר על ידי הצ'אטבוט שלה, גם אם הוא שגוי וחייבה את אייר קנדה להשיב לנוסע את כספו. פסק הדין הבהיר שחברות לא יכולות להתנער מאחריות בטענה ש"זה רק אלגוריתם".
האירועים האלה מאופיינים בכך שהמערכת שאנחנו סומכים עליה "מתנהגת" באופן שונה מהמצופה, בין אם היא מעליבה אותנו, או מספקת לנו מידע שגוי או מטעה והם מעלים שאלות חשובות על אחריות חברות טכנולוגיה כלפי המשתמשים, במיוחד כשמדובר במערכות AI שמשמשות אנשים בחיי היומיום.
אגב כאשר גוגל נשאלה על המקרה של Gemini, תגובתה הייתה (בתרגום חופשי): "מודלים של שפה יכולים לעיתים להגיב בתשובות לא הגיוניות, וזו דוגמה לכך. התגובה הפרה את המדיניות שלנו ונקטנו בפעולה כדי למנוע מקרים דומים". תגובתה של גוגל למקרה מצביעה על ניסיון להציג את מודל השפה כמעין "עובד עצמאי", המסוגל לבצע טעויות אנושיות. במובן מסוים, היא מתנערת מאחריות ישירה, כמו מעסיק שמסביר שטעות של עובד היא אישית ואינה משקפת את מדיניות החברה. אך האם ההשוואה הזו נכונה? כאשר עובד עושה טעות, קיימת לרוב אחריות למעסיק, אך יתכנו מקרים בהם אחריות המעסיק לא תהיה מוחלטת (למשל במקרה שבו העובד חרג מסמכות ופעל בניגוד להוראות המעסיק). עם זאת, במקרה של טעות שנגרמה על ידי מוצר, כמו צ'אטבוט, האחריות צריכה להיות ברורה הרבה יותר. בניגוד לעובד אנושי, המוצר אינו פועל מתוך שיקול דעת עצמאי אמיתי, אלא רק במסגרת הגבולות שהוגדרו לו על ידי מפתחיו. לכן, במקרה של נזק, לא נכון יהיה לייחס את ה"טעות" למוצר עצמו, גם כשהתוצאות לא צפויות, אלא לחברה שיצרה אותו ושחררה אותו לשוק.
ככל שמערכות ה AI יתפתחו, תגבר הדילמה, האם AI הוא מוצר כמו כל מכשיר אחר, שחייב לעמוד בתקני בטיחות מחמירים, או שהוא "טאלנט" עצמאי שאינו בשליטת מפעיליו ולכן הם יכולים להתנער מאחריות למעשיו?
לדעתי, לא ניתן לתת לחברות טכנולוגיה לחמוק מהאחריות שלהן בטענה שמדובר בכלי טכנולוגי מורכב שאינו בשליטתן. אם הן מציעות שירות שמשפיע ישירות על אנשים - לטוב ולרע - האחריות היא שלהן לוודא שההשפעה תהיה חיובית, או לכל הפחות לא מזיקה.
כדי להתמודד עם הסיכונים שמערכות AI מציבות, יש צורך בפתרונות משולבים הכוללים גם רגולציה חיצונית אבל גם יוזמות פנימיות מצד החברות, כדי להבטיח שכלי AI יפעלו באופן בטוח ואמין.
כשחברה משיקה מערכת AI היא צריכה לוודא שהיא מוכנה להתמודד לא רק עם שימוש שגרתי, אלא גם עם תרחישים בלתי צפויים או רגישים. בדיקות פנימיות מעמיקות יכולות לחשוף חולשות במערכת ולמנוע טעויות פוטנציאליות.
בנוסף, ראוי שהחברות ידריכו את המשתמשים כיצד להשתמש נכון במערכות. כלים אלה הם לא רק "צעצועים טכנולוגיים" – הם משפיעים על החלטות אישיות, מקצועיות ואפילו רגשיות. חברות יכולות ליצור מדריכים פשוטים וברורים שמסבירים מה הכלי יכול לעשות ומהם מגבלותיו. כשמשתמשים מבינים את הכלים שהם מפעילים, הם מסוגלים לנצל אותם בצורה טובה יותר וגם להימנע משימוש בעייתי.
לבסוף, כשמשהו משתבש, החברות צריכות לספק למשתמשים מנגנוני תמיכה מהירים ויעילים. מוקד סיוע זמין, שבו משתמשים יכולים לקבל תשובות או להעביר דיווחים על תקלות, יכול לסייע לבנות את אמון המשתמשים, גם כדי לתת מענה אישי וגם כדי לאסוף מידע שישמש לשיפור המערכת.
השקעה בבדיקות, בהכשרה ובתמיכה היא יותר מסתם חובה תפעולית – היא חלק בלתי נפרד מהאחריות המשפטית, האתית והעסקית של חברות טכנולוגיה. כאשר חברות מוכיחות שהן עושות כל שביכולתן למנוע נזקים ולהגיב להם ביעילות, הן לא רק משפרות את שביעות הרצון של המשתמשים, אלא גם מגינות על עצמן מפני תביעות משפטיות ונזקים למוניטין.
בטווח הארוך, ההשקעה הזו תשתלם. חברות שיציגו גישה אחראית ירוויחו את אמון המשתמשים ויהפכו את הכלים שלהן לא רק לחכמים יותר, אלא גם בטוחים ואמינים.
עו"ד נטע שקד-שטדלר היא שותפה במשרד גורניצקי GNY