"חייבים לעצור את הנשק הרובוטי - זהו כלי אידיאלי לג'נוסייד"
כך נטען במכתב פתוח שפרסמו סטיבן הוקינג, מייסד אפל סטיב ווזניאק, אלון מאסק ומאות מאות מדענים ואישי הייטק - ומתאר את סכנת השימוש במכונות מלחמה אוטונומיות. לטענת הכותבים, אינטליגנציה מלאכותית בשדה הקרב תעזור לטרוריסטים ודיקטטורים ותוליד מירוץ חימוש מסוכן
- אחת-שתיים-שלוש Buddy: רובוט שמשחק עם ילדים
- מלכודת ה-AI: הכתבה שהרובוטים לא רוצים שתקראו
- רובוט הרג עובד בפולקסווגן, ומצית את שאלת המוסר הרובוטי
המכתב הוצג לקראת הכנס השנתי הבינלאומי לאינטלגנציה מלאכותית (IJCAI), שנפתח היום בבואנוס-איירס. “כלי נשק אוטונומיים יכולים לבחור ולפגוע במטרות ללא התערבות בני אדם", נכתב. “בינה מלאכותית הגיע לשלב שבו שימוש במערכות כאלו, דוגמת מסוקים שיכולים לחפש ולהשמיד אנשים לפי מדדים שנקבעו מראש, יהיה ישים בתוך שנים, לא עשורים".
לפי המכתב, כלי נשק אוטונומיים יהוו את מהפכת הלוחמה השלישית - אחרי אבק שריפה ונשק גרעיני. “השאלה המרכזית שניצבת היום בפני האנושות היא האם לפתוח במירוץ חימוש גלובלי של בינה מלאכותית או למנוע אותו. אם אחת מהמעצמות הצבאיות תקדם פיתוח כלי נשק כאלו, מירוץ החימוש יהיה בלתי נמנע והתוצאה הסופית ברורה: כלי נשק אוטונומיים יהיו הקלשניקובים של מחר. בניגוד לנשק גרעיני, הם לא דורשים חומרים יקרים או קשים להשגה, והם יהיו נפוצים וזולים לייצור".
וכשזה יקרה, מזהירים החותמים, דרכם של כלי נשק כאלו לשוק השחור תהיה קצרה במיוחד. “משם הם יכולים להגיע בקלות לידיהם של טרוריסטים, דיקטטורות שרוצות להדק את שליטתן באוכלוסייה, שרי מלחמה שרוצים לבצע טיהור אתני ועוד. כלי נשק אוטונומיים הם כלי אידאלי למשימות כמו התנקשות, ערעור יציבותן של מדינות, דיכוי אוכלוסייה והריגה בררנית של קבוצה אתנית מסוימת".
"אנחנו מאמינים שמירוץ חימוש מסוג זה לא יהיה לטובת האנושות בדיוק כמו שמרבית הכימאים והביולוגים לא מעוניינים לבנות נשק כימי או ביולוגי, כך מרבית חוקרי הבינה המלאכותית לא מבקשים לבנות כלי נשק מבוססי בינה מלאכותית - ולא רוצים שאחרים ישחירו את שדה פעילותם בעשותם כן דבר שעלול לעורר זעם ציבורי נגד בינה מלאכותית ולמנוע הטבות אפשריות שלה. יש לעצור את כניסתו של העולם למירוץ חימוש בכלי נשק מבוססי בינה מלאכותית ולבסס איסור על שימוש בכלי נשק אוטונומיים שלא נמצאים בשליטת בני אדם".
מי אמור לטפל בבעיה?
המכתב מציג תחזית שחורה ועגומה, אך לא בלתי-מציאותית, וכבר הספיק לעורר הד ציבורי משמעותי הודות למספר וזהות החותמים עליו. אלו כוללים, לצד הוקינג, ווזניאק ומאסק, גם כמה מהחוקרים המובילים בעולם בתחום הרובוטיקה והבינה המלאכותית, ממוסדות מחקר בעלי שם עולמי כמו ברקלי, הארווארד, MIT וסטנפורד. כמו כן, חתומים עליו חוקרים בולטים בחברות טכנולוגיה כמו מנהל חטיבת המחקר של מיקרוסופט אריק הורוביץ, מנהל המחקר של גוגל פיטר נורביג, חוקרי בינה מלאכותית מפייסבוק, טוויטר ועוד. לצדם חתומים על המכתב גם חוקרים ומובילי דעת קהל בתחומים אחרים, דוגמת הבלשן והוגה הדעות פרופ' נועם חומסקי, חתן פרס פרופ' פרנק ווילצ'ק, וכן פילוסופים, משפטנים, פעילי זכויות אדם, כלכלנים ועוד.
עם זאת, המכתב לא מופנה לגורם ספציפי ולא כולל הצעות מיידיות לפעולה (למשל, כינוס ועידה בנושא של המעצמות הגדולות), ולא ברור איזו השפעה ארוכת טווח תהיה לו בסוגיה המדוברת, אם בכלל.