שוברת קודיםפחד מהעתיד: הנבואה הופכת אותנו לשוטים
שוברת קודים
פחד מהעתיד: הנבואה הופכת אותנו לשוטים
עד כה נביאי טכנולוגיה לא הוכיחו את עצמם, אך זה לא מונע מנבואות אוטופיות ודיסטופיות להשתלט על שיח הבינה מלאכותית. ושני הצדדים, גם המוקסמים וגם המפוחדים, משתייכים למעשה לאותו מחנה נלהב
בשבוע החולף הודיע משרד המסחר האמריקאי על בחינת הטלת תקנות על פיתוח מערכות בינה מלאכותית, כדי להבטיח שהמערכות שיפותחו יהיו אמינות, חוקיות ומוסריות. הבחינה החלה בעקבות העניין העצום שלו זוכות מערכות אלו בחודשים האחרונים, במיוחד עם השקת שורת המוצרים של OpenAI כמו ChatGPT. אפשר להניח כי הבחינה והרעיון להטיל מגבלות או תקנות יארכו זמן רב, אם בכלל, עד אז הדיון העז מתנהל בין מומחים, על גבי דפי העיתונים וברשתות החברתיות.
היום שולטת עמדה אחת בשיח, אם כי היא מתחזה לשתיים מתחרות ובכל מקרה מגלמת תרגיל הטעיה ציבורי. היא כוללת את ההערכה המובלעת כי הכלים הללו יעצבו מחדש את החיים, ממש יהפכו אותם על פניהם. מהפכנות זו מתוארת פעם אחת באופן אוטופי ופעם שנייה באופן דיסטופי, אך בכל מקרה כאירוע בלתי נמנע.
אלו העוסקים בהשלכות האוטופיות מדברים בשבחה של איכות המוצרים, כיצד הם "מוכשרים" ו"יצירתיים" כל כך שכבר עברו בחינות לשכה של עורכי דין ומבחני הסמכה של רופאים. תראו, הם כתבו את הטקסט הזה והחליפו עיתונאים (לא באמת). בהתאם, הסכנה הגדולה היא לכל עבודות הצווארון הלבן, לרבות מתכנתים, מעצבים, מאיירים ומלחינים. ההחלפה כמובן אינה נוראית, היא למעשה תגביר את הפרודוקטיביות, תגדיל את שעות הפנאי ואולי ממש תעשה עבודה טובה יותר מבני האדם. "ברפואה הצ'אטבוט יהיה חופשי מהנחות מוקדמות", כתבו למשל בעיתון ישראלי לאחרונה.
העוסקים בהשלכות הדיסטופיות, נביאי הזעם, טוענים שכל זה הוא רק ההתחלה, ומוצרים אלו הם הצצה מוקדמת ובלתי נמנעת לאחרים חזקים. בקרוב יהיו לנו "מוחות דיגיטליים", בינה מלאכותית כללית (AGI) שתהיה שווה או תעלה על של בני האדם. או אז, סופנו קרב, אירוע הכחדה צפוי לבוא עלינו. הרעיון נוסח במכתב פתוח שזכה להד ציבורי עז, עליו חתמו אלפי אנשים, ובהם האיש העשיר בעולם אלון מאסק, ההיסטוריון יובל נח הררי, מהנדסים ממיקרוסופט, פייסבוק ואמזון, חתן פרס נובל אחד ואחרים. מכתב שבו קראו לעצור את כל הפיתוחים בתחום למשך חצי שנה פתח לכאורה את השיחה על רגולציה. "האם עלינו להסתכן באובדן שליטה על הציביליזציה שלנו?" הם שאלו בחוסר אונים.
המכתב היה רק אחד בים של פרסומים, כולם מתריעים מפני הסכנות הקיומיות שבפיתוחי בינה מלאכותית על עתיד האנושות עצמה. הסיכונים ההיפותטיים ממוקדים באידיאולוגיה שנקראת "חשיבה לטווח ארוך", המתעלמת מהנזקים הממשיים הנובעים מהפריסה של מערכות בינה מלאכותית. ב"ניו יורק טיימס" טענו יובל נח הררי, טריסטין האריס ואזה רסקין ש"אם לא נשלוט בבינה מלאכותית, היא תשלוט בנו", והיא "יכולה לאכול במהירות את כל התרבות האנושית"; במגזין "טיים" קרא יבגני יודוקובסקי "להרוס מרכזי נתונים בתקיפה אווירית"; וסם אלטמן, מנכ"ל OpenAI, שיכול לבחור לבנות מוצרים באופן אחראי ושקוף, אמר בריאיון שהוא "חושב שאנחנו לא רחוקים מכלים שעלולים להיות מפחידים". מאסק, שגם מימן את המכון שפרסם את המכתב הפתוח, הודיע כבר מאז על הקמת חברה מתחרה ל־OpenAI.
זה אולי נראה כאילו עומדים כאן שני צדדים מתחרים – אחד מוקסם, שני מפוחד, אך שניהם שייכים לאותו המחנה אחוז ההתלהבות. שניהם מייחסים סכנות בלתי נמנעות למוצרים הללו, ולא לארגונים שבונים אותם. שניהם מתעלמים מהבעיות שהם מחוללים כבר היום: פגיעה בזכויות יוצרים ופרטיות, נזק סביבתי עצום ועלות אנושית בלתי נסבלת של מי שממיין ומסנן את הנתונים שמשמשים לאימון המודלים. לכן הרגולציה שהם קוראים לה נגזרת מאותה הנחה של כוח עצום ובלתי נמנעות.
1. מנותקים מהמציאות
ייתכן שהדבר יפתיע, וייתכן שלא, אך התלהבות מהולה בפחד דיסטופי מצמרר היא אירוע מחזורי. כך, למשל, עוד ב־1961 כתב מדען המחשב ואחד מאבות תחום הבינה המלאכותית מרווין מינסקי כי "בימי חיינו המכונות עלולות לעלות עלינו באינטליגנציה כללית". ב־2004 השופט והסופר האמריקאי ריצ'רד פוזנר הציע להקים ישות ממשלתית שתהיה אחראית לזהות טכנולוגיות שעלולות להביא לקטסטרופה עולמית. ב־2008 אמר פיטר קוקרן, לשעבר ראש מעבדות המחקר של BT: "אני מעריך שמסגרת הזמן להופעת אינטליגנציית מכונה משמעותית היא 2020. עד 2030 זה סוף המשחק". לאלו תמיד התלווה החשש המכרסם מאוטומציה של עבודות. "הרובוטים באים לקחת את העבודה שלך", הכותרות יסבירו. ב־2013 מחקר אחד מאוניברסיטת סטנפורד, שהעריך כי 47% מכל המשרות ייעלמו בעשור או שניים הקרובים בגלל בינה מלאכותית, הסעיר את העיתונות הכלכלית יותר משנה. כמה שנים אחר כך העיסוק נכרך סביב ווטסון של יבמ. הוא היה אמור לרפא את מחלת הסרטן.
כל התחזיות, למעט אלו שראו את סוף העולם רק בעתיד המדומיין מאות שנים קדימה, התבדו. מומחים טכנולוגיים התגלו כגרועים למדי בניבוי יכולות. מהיכן מגיע הניתוק הגדול מהמציאות? המדען והסופר ארתור סי. קלארק ניסח את הנטייה היטב: "כל טכנולוגיה מתקדמת מספיק לא ניתנת להבחנה מקסם". הכתב המדעי מייקל שרמר הציע הסבר מתחרה: "אלו מקרים של קנאת אופנהיימר (ממציא פצצת האטום – ו"א) – 'יש לנו דם על הידיים... אנו כמו אלוהים’", וחתם במשוואה "GPT ≠ פצצה גרעינית".
ההערכות לגבי האוטומציה מ־2013 עברו מאז עדכון משוחרר מאוויר חם של התלהבות. צוות של ה־OECD העריך ב־2016 כי הפגיעה במשרות תעמוד על 10%, גם זו נחשבת הערכה נדיבה. דבר דומה גם לבינה מלאכותית חזקה כאדם. עד היום, ובניגוד לתחזיותיו של מינסקי, לא הצליחו מדענים להבין כיצד המוח האנושי מתפקד, ואנו עדיין לא יודעים את טיבם של המנגנונים הנוירולוגיים שמאחורי רכיבי האנושיות הבסיסיים ביותר כמו יצירתיות, היגיון והומור. "לתוכנות אלו אין אינטואיציה של ההיגיון הבריא של ילד בן 4", כתב המבקר הוברט דרייפוס בשנות השמונים, בקביעה שנותרה נכון גם היום. בינתיים הכל חוזר על עצמו. במרץ האחרון OpenAI פרסמה נייר עבודה שבו טענה כי כלים כמו שהיא מפתחת מאיימים על 49% מהמשרות, בזמן שהשיח הוצף בתחזיות סוף העולם על ידי אלו המקנאים באופנהיימר.
2. תתחילו לנהל
מי שנחנקה בתוך הדיון החד־ממדי הזה היא חבורה נמרצת של מדעניות מחשב, בלשניות ואתיקניות. "מסוכן להסיח את דעתנו בפנטזיות של אוטופיה או אפוקליפסה מבינה מלאכותית, בין שהיא מבטיחה עתיד 'משגשג' ובין 'פוטנציאל'", כתבו ממכון DAIR, שעוסק באתיקה ובינה מלאכותית בתגובה לשיח השולט. "שפה כזו שמנפחת את היכולות של מערכות אוטומטיות ואנתרופומורפית... מטעה אנשים לחשוב שיש ישות חיה מאחורי המדיה הסינתטית, מפתה אנשים לסמוך באופן לא ביקורתי על התפוקות של מערכות כמו ChatGPT, ומשבשת את הסוכנות. האחריות אינה מוטלת על החפצים אלא על היוצרים שלהם". הן צודקות. השאלה האמיתית שניצבת כיום אינה אחת של תגובה לאירוע בלתי נמנע, אלא של רצון פוליטי והתייחסות לטכנולוגיה כאל דבר שיש לנהל אותו, במקום שתנהל אותנו.