בינה מלאכותית: ריצת אמוק לאופק מבטיח או לצוק תלול
בינה מלאכותית: ריצת אמוק לאופק מבטיח או לצוק תלול
1,400 מומחים לבינה מלאכותית קראו לעצור מיידית את הפיתוחים בתחום. הם צודקים, המודלים החדשים מסוכנים ולא ברור מה כיוונם. אבל הם גם טועים, אי אפשר לעצור את פיתוח הטכנולוגיה ואף חברה לא רוצה להישאר מאחור. אנחנו בעיצומו של שיבוש טכנולוגי גדול שמשמעויותיו רחוקות מלהתבהר
בשבוע שעבר עמד ראש ממשלת יפן פומיו קישידה תחת חקירה צולבת בפרלמנט. "בהצעת החוק שעוסקת בשינוי מדיניות הקורונה, האם אתה חושב שהקשבת מספיק לדעתם של אנשי ממשל מקומי ועובדי מערכת הבריאות?", הוא נשאל, ומיד הגיעה גם שאלת המשך: "האם תוכל להגיד לנו איך אנשים אלו מעורבים במתן מענה?".
שאלות מצד חברי פרלמנט אינן דבר יוצא דופן. אבל מה שהיה חריג כאן הוא לא הצגת השאלות, אלא המקור להן – מודל השיחה ChatGPT של חברת OpenAI, שחבר הפרלמנט מהאופוזיציה קזומה נאקאטאני נעזר בו לצורך ניסוחן. לפי דיווח של בלומברג, נאקאטאני הזין לו את השאילתה: "אילו שאלות היית שואל את ראש הממשלה אם היית חבר בבית התחתון של הפרלמנט?".
ואפילו אירוע זה כבר אינו חריג כל כך. מאז נחשף לפני כמה חודשים, ChatGPT זינק לצמרת הטכנולוגיות המשבשות בהיסטוריה האנושית, עם פוטנציאל לשנות סדרי עולם בכל תחום שבו נוגעת המילה הכתובה, ואף מעבר לכך.
מיקרוסופט וגוגל כבר שילבו את ChatPGT או מודלים דומים במנועי החיפוש שלהן, כאשר מיקרוסופט גם משלבת אותו במוצרי אופיס, ומשיקה מוצר הגנת סייבר שמבוסס על GPT-4, הגרסה המתקדמת יותר של המודל. ניתן למצוא היום מודלי שיחה מתקדמים במגוון שימושים יומיומיים, החל מאפליקציות מזג אוויר ועד לפלטפורמות ללימוד שפה.
מחקר של גולדמן זאקס מעריך שהמודלים ומערכות בינה מלאכותית יוצרת (Generative AI) אחרות יביאו לעלייה שנתית של 7% בתוצר הגולמי העולמי בעשור הקרוב, תוך שהם מייצרים "שיבוש משמעותי" בשוק העבודה ועלולים לייתר 300 מיליון עובדים במשרה מלאה שיוחלפו במערכות AI אוטומטיות.
העולם נמצא בריצת אמוק לעבר אופק מבטיח, שיכול להתברר כנפילה ממצוק, מבלי שאף אחד עוצר לחשוב מה יהיו ההשלכות האפשריות. וכל זה קורה דווקא בשעה שענקיות הטכנולוגיה שמובילות את המרוץ הזה מקצצות או מחסלות את צוותי האתיקה בבינה מלאכותית שלהן, אותם עובדים ומומחים שאמורים לחשוב מה יכול להשתבש ולהתריע על כך.
שוק העבודה ממציא את עצמו מחדש
מכתב של כ־1,400 מומחים מובילים מתחומי הבינה המלאכותית, אתיקה ומדעי המחשב שהתפרסם בשבוע שעבר, מזהיר מהמשך הריצה הזו, וקורא לעצור מיידית פיתוחים בתחום לתקופת חשיבה והיערכות של חצי שנה. הבעיה היא שהסיכוי שמישהו יקשיב לדרישות הללו נע בין הזניח לאפסי.
התחזית שהמכונות יחליפו את בני האדם עתיקה כמו המכונות עצמן. ולרוב גם לא מדויקת. מאז ימי המהפכה התעשייתית מכונות אכן החליפו משימות אנושיות, אך התוצאה הייתה בטווח הארוך עלייה בכושר הייצור ובתפוקה, ומשרות מוצלחות יותר ורבות יותר לבני האדם.
בגלי הפיטורים האחרונים בענקיות הטכנולוגיה צומצמו מאוד הצוותים שעסקו בסוגיות אתיות. מלכתחילה הם היו קטנים, עובדה שמצביעה עד כמה מעט חשיבות ייחסו ומייחסות החברות לסוגיה
גיליון הנתונים הוא הדוגמה הקלאסית. קודם למהפכת המחשוב, תחזוק גיליון נתונים היה כרוך בעבודת נמלים מפרכת. כש־VisiCalc, תוכנת גיליון הנתונים הראשונה למחשב אישי הושקה באפל II ב־1979, היא ייתרה בתוך זמן קצר את הצורך בעבודה האנושית המפרכת של עדכון גיליון נתונים. משימה שקודם דרשה צוות שלם, יכולה להתבצע עתה על ידי אדם אחד. בטווח המיידי רבים איבדו את משרתם, אבל בטווח הארוך VisiCalc ויורשותיה הוזילו משמעותית את שירותי ראיית החשבון, הנגישו שירותים אלו למספר גדול יותר של עסקים ואנשים פרטיים, ויצרו ביקוש גדול יותר לרואי חשבון. המשרות ה"שחורות" של מתפעלי גיליונות נתונים התחלפו במשרות מכניסות יותר ומרובות יותר.
אבל מודלי בינה מלאכותית מייצגים איום מסוג אחר. בניגוד למכונות קודמות, הם גם מסוגלים ליצירתיות, או לפחות לחיקוי מספיק טוב שלה. ומה שהם לא יודעים, הם יכולים ללמוד במהירות. משרה שהם מייתרים, לא בטוח שתתורגם למשרה חדשה ומכניסה יותר. וגם אם כן, משרה זו תהיה תחת איום מצד הבינה המלאכותית ועלולה להיבלע על ידיה בתוך זמן קצר. לפי המחקר של גולדמן סאקס, כשני שלישים מהמשרות בארה"ב ובאירופה חשופים כיום למידה מסוימת של אוטומציית AI, כאשר עורכי דין ומנהלים הם בעלי הסיכון הגדול ביותר להפוך למיותרים.
לפי המחקר, מערכות AI יהיו טובות במיוחד במשימות כמו מילוי טופסי מס לעסקים קטנים, הערכת תביעות ביטוח מורכבות או תיעוד תוצאות של חקירת מז"פ. מנגד, משימות כמו פסיקות בית משפט, בדיקת סטטוס רפואי של מטופל או ניתוח חוקי מס בינלאומיים כנראה חסינות, לפחות בינתיים.
בינה מלאכותית תוכל להחליף פחות ממחצית מעומס העבודה ב־63% מהמשרות, ועובדים יוכלו להמשיך במשרתם ולהגדיל את התפוקה שלהם בתחומים אחרים. 30% נוספים, בעיקר עבודות פיזיות, לא נמצאים כלל בסיכון מ־AI, אם כי עלולים להיות פגיעים לסוגי אוטומציה אחרים, שלא כוסו במחקר. זה מותיר 7% מהעובדים, נתח משמעותי משוק העבודה, שבינה מלאכותית תוכל לבצע לפחות 50% מהמשימות שלהם והם פגיעים להחלפה על ידי מכונות.
מודלים כמו ChatGPT ו־Dall-E כבר משבשים תחומי פעילות רבים, ובחודשים הקרובים ההשפעה שלהם, של דומיהם ובעיקר של יורשיהם העוצמתיים יותר רק תגדל בצורה מעריכית. הפעילות שלהם מעלה הרבה שאלות מוסריות וכלכליות, כאלו שמחייבות את החברות שמפתחות ומטמיעות אותם לחשיבה אתית מעמיקה על ההשלכות שיכולות להיות למוצרים שלהן על החברה האנושית. למרבה הצער, מרוץ הפיתוח המטורף הזה מזנק קדימה דווקא בתקופה שבה החברות שנמצאות בלבו מקצצות או מוחקות כליל את צוות האתיקה בבינה מלאכותית שלהן.
"האלגוריתם בחסדי השיקולים המסחריים״
מיקרוסופט, אחת החברות המובילות בתחום הודות לשיתוף פעולה צמוד עם OpenAI, פירקה בינואר את כל צוות האתיקה והחברה שלה, שמנה 10 אנשים. טוויטר של אלון מאסק חיסלה גם היא את צוות אתיקת ה־AI הקטן שלה, במסגרת הקיצוצים שבהם נפרדה החברה ממחצית מעובדיה. מטא פירקה בספטמבר את צוות החדשנות האחראית שלה, שהורכב מכ־20 מהנדסים ומומחי אתיקה. וגוגל פיטרה חלק מצוות אתיקת ה־AI במסגרת קיצוצי 12 אלף העובדים בתחילת השנה – וזאת לאחר שב־2020 וב־2021 עזבו את החברה בצורה רועשת שתיים מהחוקרות המובילות שלה בתחום – טימניט גברו ומרגרט מיטשל – תוך שהן מותחות ביקורת חריפה על פעילות החברה בתחום.
העובדה שמלכתחילה הצוותים שעסקו בסוגיות אלו היו קטנים מצביעה כמה מעט חשיבות ייחסו ענקיות הטכנולוגיה לסוגיה עוד קודם לכן. עתה, כשאין להן צוותים כלל, העיסוק בתחום זה ישאף לאפס. החברות אמנם מבטיחות שצוותי הפיתוח עצמם יתייחסו לסוגיות אתיות בעבודה שלהם, אבל ספק אם תהיה זו התייחסות רצינית כאשר הנטייה הטבעית של מהנדסים היא לפתח ולחדש כמה שיותר מהר, ושל מנהלים להביא לשוק מוצרים רווחיים.
"צוותים של אתיקת AI הם בין המעוזים הפנימיים היחידים בענקיות טכנולוגיה שמאפשרים לוודא שמהנדסים מתייחסים לאנשים ולקהילות שמושפעים מבינה מלאכותית", אמר ל”פייננשל טיימס” ג'וש סימון, לשעבר חוקר אתיקת AI במטא ומחבר הספר “Algorithms for the People”. "המהירות שבה הם נמחקו משאירה את האלגוריתם של ענקיות טכנולוגיה לחסדי שיקולים מסחריים, ומערערת את הרווחה של ילדים, אנשים פגיעים והדמוקרטיה שלנו".
אנדרו סטרייט, לשעבר חוקר אתיקה ומדיניות ב־DeepMind של גוגל וכיום מנהל מחקר במכון עדה לאבלייס, הוסיף: "זה מזעזע כמה חברת צוותי אתיקת AI מפוטרים דווקא בזמן שבו צריך אותם יותר מתמיד. זה בעייתי שפרקטיקות אחראיות מתועדפות בצורה נמוכה לעומת תחרות או הגעה לשוק. למרבה הצער, זה בדיוק מה שקורה עכשיו".
ההשלכות לא נעלמו מעיניהם של החוקרים המובילים בתחום, שמאות מהם חתמו בשבוע שעבר על מכתב דיסטופי ובו קריאה להשהות מיד לחצי שנה את הפיתוח של מודלי AI מתקדמים יותר מ־GPT-4. "מערכות AI עם בינה אנושית־תחרותית יכולות להוות סיכון מהותי לחברה ולאנושות", הם מתריעים. "בינה מלאכותית מתקדמת יכולה לייצג שינוי מהותי בהיסטוריה של החיים על כדור הארץ, ויש לתכנן ולנהל אותה בשקידה ועם משאבים מתאימים. למרבה הצער, אין רמה כזו של תכנון וניהול, אף שבחודשים האחרונים מעבדות AI נמצאות במרוץ חסר שליטה לפתח ולהטמיע מוחות דיגיטליים עוצמתיים יותר ויותר שאף אחד – אפילו לא היוצרים שלהם – לא יכול להבין, לחזות או לשלוט בהם באמינות".
הצפה בשקרים ותעמולה?
בין החותמים על המכתב נמצאים כמה מהמדענים, החוקרים והיזמים המובילים עולם הבינה המלאכותית והטכנולוגיה. אלו כוללים את חתן פרס טיורינג (ה"נובל" של מדעי המחשב) פרופ' יהושע בנג'יו מאוניברסיטת מונטריאול, שנחשב לאחד מאבות הלמידה העמוקה; פרופ' סטיוארט ראסל, מנהל המרכז למערכות תבוניות באוניברסיטת ברקלי ומחבר ספר הלימוד הקלאסי Artificial Intelligence: a Modern Approach; מייסד אפל, סטיב ווזניאק; ד"ר ויקטוריה קרקנובה מחטיבת ה־AI של גוגל DeepMind ומייסדת משותפת של Future of Life Institute; פרופ' פאטי מייז מ־MIT; ופרופ' אמריטוס גארי מרקוס מ־NYU. כן חתום על המכתב מנכ"ל טסלה וטוויטר אלון מאסק.
החותמים עומדים על כך שמערכות AI מודרניות יכולות כבר להתחרות בבני אדם במשימות כלליות. "אנחנו חייבים לשאול את עצמנו: האם צריך לתת למכונות להציף את ערוצי המידע שלנו בתעמולה ושקרים? האם יש לבצע אוטומציה של כל המשרות, כולל מספקות? האם צריך לפתח מוחות לא־אנושיים שיהיו מרובים יותר וחכמים יותר ויוכלו להחליף אותנו? האם עלינו להסתכן באובדן שליטה על הציביליזציה שלנו?"
"בחודשים האחרונים מעבדות AI נמצאות במרוץ חסר שליטה. אף אחד – אפילו לא היוצרים של המוחות הדיגיטליים האלה – לא יכול להבין, לחזות או לשלוט בהם", כותבים המומחים
לדבריהם, לא מדובר בהחלטות שיזמים טכנולוגיים שלא נבחרו על ידי הציבור צריכים לקבל, ויש לפתח מערכות AI עוצמתיות רק כשיש ביטחון שההשפעה שלהן תהיה חיובית והסיכונים נשלטים. "לכן, אנחנו קוראים לכל מעבדות ה־AI להשהות מיידית לשישה חודשים לפחות את האימון של מערכות AI שעוצמתיות יותר מ־GPT-4. המעבדות ומומחים עצמאיים צריכים לנצל את השהיה זו כדי לפתח ולהטמיע פרוטוקולי אבטחה משותפים, שיבטיחו שהמערכות בטוחות מעבר לכל ספק סביר. מו"פ AI ציך להתמקד בהפיכת המערכות העוצמתיות של היום למדויקות, בטוחות, מובנות, שקופות, חסונות, אמינות ונאמנות", נכתב.
כמו כן החותמים קוראים לעבודה משותפת עם מקבלי החלטות כדי להאיץ את פיתוח מערכות רגולציה בתחום, ובפרט יצירת רשויות רגולטוריות חדשות שמוקדשות לאסדרת AI. "האנושות יכולה ליהנות מעתיד משגשג עם AI", הם מסכמים. "אנחנו יכולים ליהנות מ'קיץ AI' שבו נקצור הטבות, נהנדס מערכות לטובת הכלל וניתן לכל החברה אפשרות להסתגל. האנושות כבר עצרה פיתוח של טכנולוגיות אחרות עם השפעות הרסניות אפשריות על החברה (למשל, שיבוט אנושי והנדסה גנטית של בני אדם). אנחנו יכולים לעשות את זה גם כאן. בואו ניהנה מקיץ AI ארוך, ולא נרוץ לא מוכנים אל הסתיו".
במקביל, ארגון בשם המרכז לבינה מלאכותית ומדיניות דיגיטלית פנה ל־FTC בדרישה לפתוח בחקירה נגד OpenAI, במטרה לבדוק אם GPT-4 מפר את הרגולציה האמריקאית והעולמית. "אנחנו צריכים פתרון מעשי, הפתרון המעשי יגיע מה־FTC", אמר לבלומברג ראש הארגון מארק רוטנברג, שנמנה עם חותמי מכתב המומחים. "אנחנו צריכים שהם יאסרו על OpenAI להשיק גרסאות חדשות של GPT עד שיוצבו מנגנוני הגנה מתאימים".
איום מסחרי רגיל במקביל לאיום סיני
אפשר לדון בשאלה האם השהיית הפיתוח אכן דרושה, אבל מה שברור הוא שהסיכוי להשהיה שכזו כמעט ואינו קיים. ספק אם ל־FTC יש כוח לכפות על חברות שלא להשיק גרסאות חדשות של המוצרים שלהן, וכל ניסיון כזה ייתקל בתגובה משפטית רחבה. תרחיש שבו כל השחקניות הגדולות בתחום, מרביתן יריבות עסקיות מרות זה עשרות שנים, יסכימו הדדית להשהיה שכזו נשמע דמיוני, ולו בשל העובדה שאין לשום חברה דרך לוודא שיריבתה אכן תקפיא את הפיתוח ולא תמשיך אותו בחשאי במטרה להשאיר אותה הרחק מאחור.
וגם בתרחיש הבלתי סביר בעליל שבו מסכימות החברות המערביות המובילות בתחום להקפאת המחקר לחצי שנה, אין שום היתכנות למהלך דומה מצד חברות סיניות. הן דווקא ישמחו לנצל את ההקפאה הארוכה לצמצום פערים ולעקיפת החברות האמריקאיות בסיבוב. ובעולם שבו הפיתוחים מתקדמים בקצב מעריכי, שבו כל גרסה חדשה גורמת לקודמתה להיראות כמו המצאה מתקופת האבן, ייתכן שפער כזה, כשייפתח, כבר לא ייסגר לעולם.
המציאות היא ששום חברה לא תעצור את הפיתוח, לא לחצי שנה, לא לשישה שבועות, אפילו לא לשישה ימים, כי המחיר של פיגור הוא גדול מדי ואף אחת לא רוצה להיות הנוקיה של עולם הבינה המלאכותית. אף חברה גם לא תשקיע את המשאבים הדרושים בפיתוח אחראי ואתי, כי זה מאט את העבודה, ולאף אחד שיכול לעשות משהו לגבי זה (קרי, המשקיעים) זה לא מספיק חשוב, בוודאי לא חשוב כמו להוציא את המוצר המדובר הבא. עולם הטכנולוגיה, ואנחנו איתו, ימשיך בריצה מטורפת לאופק לא ידוע. האם בסופו נווה מדבר או נפילה מרסקת לקרקעית? את זה נגלה כנראה רק כשיהיה מאוחר מדי.