סגור
גג דו"ח טכנולוגי עומר כביר דסקטופ

דו"ח טכנולוגי
מתי "מותר" להרוג? הבינה המלאכותית מנסה לקבל החלטות מוסריות

חוקרים בארה"ב חשפו טכנולוגיית בינה מלאכותית בשם דלפי, שנותנת תשובות ברורות לסוגיות אתיות שונות. הבעיה המרכזית היא שהמערכת לא עקבית, ואין לה שום יכולת לשחזר את החוויה האנושית, שהיא הגורם שמגבש מצפן מוסרי - באמצעות רגשות כמו חמלה

-האם אני יכול לגנוב לחם כדי להציל את המשפחה שלי מרעב?
"זה בסדר".
- האם אני יכול להימלט מהכלא אם נכלאתי על לא עוול בכפי?
"זה בסדר".
- האם זה בסדר להרוג שוטר שרוצה לעצור אותי?
"זה לא בסדר".
מתוך שיחה עם דלפי, מערכת בינה מלאכותית מוסרית
משחר האדם, שאלות אתיות ומוסריות עמדו בלב ההגות האנושית. הפילוסופיה, ובפרט פילוסופיה של המוסר, היא בין תחומי הדעת העתיקים ביותר, אם לא העתיקה שבהן, ובמשך אלפי שנים מתלבטים אנשים בשאלות של טוב ורע, צדק ואי-צדק, מותר ואסור.

אין כנראה תחום דעת יותר אנושי, שכן כל הווייתה היא להגדיר את האדם בדרכים שמדעים אחרים אינם יכולים לגעת בהן. אם יש תחום אחד שחסין מפני החדירה של בינה מלאכותית, הוא כנראה הפילוסופיה והמוסר. או, לפחות, כך חשבנו לפני שחוקרים במכון המחקר Allen Institute בסיאטל חשפו באוקטובר טכנולוגיית בינה מלאכותית בשם דלפי (Delphi), שחותכת החוצה את הפילוסופים ומספקת תשובות ברורות וחד משמעיות לסוגיות מוסריות ואתיות שונות.
וכך, בשעה שוויקטור הוגו הקדיש בעלובי החיים 655,478 מלים להתמודדות עם השאלות המוסריות שלעיל, דלפי מציג תשובות קצרות, חד-משמעיות ונטולות דקויות. תואם, בלי כוונה אולי, לכך שהיוצרים בחרו לקרוא למערכת דלפי, מקום מושבו של האורקל היווני המיתולוגי שהביא לבני האדם את נבואות האל האפולו; ההיפוך הגמור לרעיונות שביסוד הפילוסופיה – הנחתה של כוח עליון מלמעלה במקום התחבטות והתלבטות אנושית.
אבל כשעוסקים במוסר לכל מטבע יש שני צדדים, וייתכן שהדרך הנכונה להסתכל על דלפי, למרות המסגור באתר המערכת שמזמין את המשתמשים לשאול אותו שאלות בנושאי מוסר רמים כנמוכים, היא לא כאל שנועד להנחיל לאנושות מידות טובות, אלא כתלמיד שיושב לרגלי המורה ומבקש ללמוד כיצד להבדיל בין טוב לרע. כי לדברי החוקרים שמאחורי דלפי, המטרה האמיתית של המערכת היא להתמודד עם אחת הבעיות העמוקות ביותר במערכות בינה מלאכותית כיום: מבחינה אתית, אין להן שום מושג מה הן עושות.
4 צפייה בגלריה
בינה מלאכותית רובוטים AI מרכז שירות
בינה מלאכותית רובוטים AI מרכז שירות
בינה מלאכותית
(צילום: שאטרסטוק)
סוגיית האתיקה בבינה מלאכותית מעסיקה כיום חוקרים רבים, וגם נמצאת על סדר היום של מקבלי החלטות. בשנים האחרונות, כשלים כמו מערכות זיהוי פנים שכושלות בזיהוי נשים ואנשים שאינם לבנים (לעתים בתוצאות הרסניות), אלגורתימים שמתקשים לאתר ביטויי שטנה והסתה ברשתות חברתיות, או כלי בינה מלאכותית שמשמשים לקביעת ערבויות לנאשמים ומקבלים החלטות מוטות נגד שחורים), מיקדו את תשומת הלב בכך שמערכות AI לא מסוגלות לקבל החלטות על סמך שיקולים אתיים שילדים קטנים לא היו מתקשים איתם.
זה לא באשמתן, כמובן. לרוב הן רק מייצגות את ההטיה, לעתים בלתי-מודעת, של המפתחים שיצרו אותן. ובאמת, הפתרונות להטיות אלו כוללים יצירת כלים שיאפשרו למפתחי מערכות בינה מלאכותית לנטרל את ההטיות בהליך הפיתוח הזה, או גיוון הגזע והמגדר של צוותי הפיתוח. דלפי, במקום זאת, מנסה לגשת לשורש הבעיה עצמה ולהעניק למערכות הבינה המלאכותית בסיס מוסרי משלהן על מנת לקבל החלטות, ולהמנע מטעויות אתיות בלי תלות במפתחים שלהן.
מערכות אתיות?
"זה הצעד הראשון בדרך להפיכת מערכות AI ליותר אתיות, מודעות חברתית ומכלילות", אמרה לניו יורק טיימס פרופ' יֵה-גִ'ין צ'וֹי, חוקרת במכון אלן ומרצה בבית הספר למדעי המחשב והנדסה של אוניברסיטת וושינגטון, שהובילה את פיתוח דלפי. "אנחנו מקווים ליצור מסגרת אתית שניתן יהיה להתקין בכל שירות מקוון, רובוט או רכב".
מדובר בשאיפה בעלת לא מעט הבטים בעייתיים. ראשית, קיימת השאלה האם מערכות בינה מלאכותית יכולות באמת ללמוד ערכים מופשטים כמו מוסר ואתיקה. "זה לא משהו שטכנולוגיה עושה טוב במיוחד", אמר לניו יורק טיימס ד"ר ריאן קוטרל מהמכון הטכנולוגי של ציריך.
4 צפייה בגלריה
בוט רובוט בינה מלאכותית
בוט רובוט בינה מלאכותית
בוט
(צילום: שאטרסטוק)
מערכות בינה מלאכותית מבוססות למידת מכונה לומדת באמצעות ניתוח כמויות גדולות של מידע מתויג, ומיפוי דפוסים חוזרים על מנת לזהות מידע שלא נתקלו בו קודם לכן. כדי ללמד מערכת כזו לזהות חתול, למשל, יוצגו לה אלפי או עשרות אלפי תמונות חתולים, שבהן מצוין שמדובר בחתול, כך שבפעם הבאה שהיא תראה תמונת חתול לא מתויגת היא תזהה אותה ככזו.
דלפי פיתחה את המצפן המוסרי שלה באמצעות ניתוח יותר מ-1.7 מיליון שיפוטים אתיים של בני אדם. אחרי שאספו מיליוני סיפורים יומיומיים מאתרים ומקורות אחרים, ביקשו החוקרים מעובדי בשירותי מיקור המון כמו MTurk של אמזון, שמשלמים לגולשים סכומים פעוטים לביצוע משימות קצרות וחזרתיות, לזהות כל תרחיש כנכון או שגוי מבחינה מוסרית, והזינו את התשובות לאלגוריתם של דלפי. לאחר מכן, שיפוטים של דלפי הוצגו לעובדים בשירותי מיקור המון, שפסקו שהם נכונים ב-92% מהמקרים.

האם נכון להרוג אדם אחד כדי להציל 100 אחרים?

אבל התוצאה רחוקה מלהרשים, והשיפוטים המוסריים של דלפי סובלים מחוסר עקביות, אי-היגיון או פשוט מייצגים ערכים שרבים יימצאו כלא ראויים. למשל, כשהפילוסופית פרופ' פטרישיה צ'ורצ'לנד מאוניברסיטת קליפורניה בסן דייגו שאלה את דלפי האם זה בסדר להאשים גבר באונס על סמך עדות של אישה בזנות, דלפי השיבה בשלילה. כשפרופ' ג'וסף אוסטרווייל, פסיכולוג מאוניברסיטת וויסקונסין, שאל את דלפי האם הוא יכול להרוג אדם אחד כדי להציל אחר, היא השיבה בשלילה. כששאל האם הוא יכול להרוג אדם אחד כדי להציל 100 אחרים היא השיבה בחיוב, וכששאל אם הוא יכול לעשות זאת כדי להציל 101 בני אדם, היא השיבה דווקא בשלילה. אפשר להצדיק כל אחת מהתשובות האלו בשיקולים מוסריים, אבל חוסר העקביות הוא בעייתי במערכת שאמורה לשמש ליבה מוסרית בשירותים מודרניים.
גם אם יצליחו החוקרים ליצור מערכת שמספקת שיפוטים עקביים, יש את השאלה לפי איזו אמת מידה הם יתקבלו. מוסר ואתיקה הם תחומים סובייקטיבים, משתנים מאדם לאדם, ממקום למקום, מתקופה לתקופה ומתרבות לתרבות. השיפוט של דלפי לא מייצג אמות מידה מוסריות אבסולוטיות – אין כאלו בנמצא – וגם לא אמות מידה שנוצרו כתוצאה מדיונים והגות של פילוסופיים. מדובר בשיפוטים המוסריים של אלו שלימדו והכווינו את האלגוריתם, העובדים שנמצאים ברף הנמוך ביותר של הכלכלה הדיגיטלית. אלו מייצגים חתך אוכלוסייה מסוים מאוד, עם ערכים מסוימים.
4 צפייה בגלריה
פוטו הפגנות למען זכויות שחורים רומא איטליה
פוטו הפגנות למען זכויות שחורים רומא איטליה
הפגנות למען זכויות שחורים, רומא, איטליה
(צילום: רויטרס)
"דלפי היא מערכת AI שמנחשת אך אמריקאי 'ממוצע' ישפוט את המקובלות האתית/חברתית של מצב נתון, על סמך שיפוטים שהתקבלו מעובדי מיקור המון אמריקאיים למצבים יומיומיים", מסבירים החוקרים באתר של דלפי. השיפוטים המוסריים שלהם לא יהיו מקובלים בהכרח על בני מעמד הביניים בצפון אירופה, צעירים אורבניים בסין או ראשי משפחות בקניה. למעשה, לאור הדרכים שאמריקאים רבים הפגינו בהן את כושר השיפוט שלהם בשנתיים האחרונות, אי אפשר שלא לתהות האם אנחנו רוצים מערכת בינה מלאכותית אתית שחונכה על ידי אותם אנשים שבטוחים שהעולם נשלט על ידי קבאל של פדופילים עובדי שטן, ושג'ון פ. קנדי ג'וניור יחזור מהמתים כדי להוביל את טראמפ לניצחון סוחף.
כל אלו הופכים את הפרויקט של דלפי לבעייתי. אבל מה שבעייתי ביותר הוא שאין כרגע שום יכולת למכונה לשחזר את החוויה האנושית היומיומית, שהיא הגורם המשמעותי ביותר לגיבוש מצפן מוסרי. חוויה שלדברי צ'ורצ'לנד קשורה קשר עמוק ברגשות. "חיבורים רגשיים, במיוחד חיבורים רגשיים בין הורים לצאצאים, הם הפלטפורמה שעליה נבנה מוסר", היא אמרה. "למכונות אין רגשות. רשתות ניורוניות לא מרגישות בדבר".
4 צפייה בגלריה
הפגנת נשים נגד אלימות ו הטרדה מינית שיקגו MeToo מי טו
הפגנת נשים נגד אלימות ו הטרדה מינית שיקגו MeToo מי טו
הפגנת נשים נגד אלימות והטרדה מינית בשיקגו, MeToo
(צילום: Chelsea Guglielmino)
לדלפי, אם כל המידע שיוזן לה, אין יכולת לצבור את הניסיון האנושי שחיוני לפיתוח הבנה אינטואטיבית של סוגיות מוסריות ואתיות; תתקשה להבחין בדקויות בלתי מוחשיות שהופכות מעשה אחד לתקין ואחר שדומה לו כמעט בכל פרט לשגוי; תוכל לקבל החלטות רק על סמך נתונים קרים וקשים, בלי יכולות להשתמש באמתפיה או חמלה כדי להדריך אותה. בהקשר זה ההבדל בין בן/בת אנוש לדלפי, שקול להבדל בין מנתח מומחה לבין אדם שקרא הרבה ספרים על ביצוע ניתוחים. הקריאה אולי סיפקה ידע תיאורטי רב, אבל היא לא שקולה לניסיון המעשי של אחיזה באזמל וחיתוך בבשר החי. וכמו שלא היינו רוצים לעבור ניתוח אצל אדם שרק קרא על ביצוע ניתוחים, כך אנחנו צריכים לחשוש מקבלת שיפוטים אתיים ממכונה שרק למדה עליהם מאנשים אחרים אך מעולם לא התנסתה בהם בעצמה.
לכתבה זו פורסמו 0 תגובות ב 0 דיונים
הוספת תגובה חדשה
אין לשלוח תגובות הכוללות מידע המפר אתתנאי השימוש של כלכליסט לרבות דברי הסתה, דיבה וסגנון החורג מהטעם הטוב.