מחוללי המהפכה"ChatGPT לא מתחיל אפילו להיות אינטליגנטי"
מחוללי המהפכה
"ChatGPT לא מתחיל אפילו להיות אינטליגנטי"
מודל השפה של ChatGPT שבה את הדמיון ופתח דלת לעולם חדש של שימושי מחשב בתחום שעד לאחרונה נראה בלתי חדיר. אלא שלפי פרופ' רוני קציר, ראש המעבדה לבלשנות חישובית באוניברסיטת תל אביב, הטכנולוגיה עדיין רחוקה מלקיים את ההבטחה ו"רחוקה מקוגניציה אנושית". נכון, יהיו לה יישומים מועילים, אבל גם "טמונות בה סכנות של שימוש על ידי מי שרוצה להרע, ולכן חייבים לפקח עליה"
ב־1773 הציג המהנדס הצרפתי ז'אק דה ווקנסון את "הברווז המעכל". המכונה היתה עשויה נחושת, מצופה זהב וכללה מעל לארבע מאות חלקים שנועדו לשחזר כל בליטה ועצם. תנועות המכונה עוצבו לפי מחקרים כך שיחקו ברווזים טבעיים, והמכונה — כך תוארה - הלכה כמו ברווז, געגעה כמו ברווז, מתחה את צווארה, נופפה בכנפיה ואכלה תירס מכף יד המפעיל כברווז. לבסוף וגולת הכותרת - עשתה צרכיה כברווז. ווקנסון הסביר כי כלל התהליכים "הועתקו מהטבע" והמזון עוכל כפי שמתרחש ב"בעלי חיים אמיתיים" באמצעות מעבדה כימית קטנה שמיקם בלב המכונה. לימים ישתמש בהמצאתו כדי להוכיח חוקרים בתחום הפיזיולוגיה כי תהליך העיכול הוא למעשה מכני.
הברווז הפך לסנסציה ועדות ליכולתו של מהנדס מוכשר לשחזר מנגנון שמצוי בבסיס תהליך החיים. הפילוסוף וולטר שנשבה בטשטוש שהברווז גילם בין החיים הטבעיים לסינתטיים אמר בשעתו כי לולא הברווז לא היה "דבר שיזכיר את תפארתה של צרפת", וכינה את ווקנסון "יריבו של פרומתיאוס" הטיטן שהעניק לאדם את האש. שנים אחר כך מנגנון ההונאה נחשף: התירס לא המשיך במורד הצוואר אלא נשאר בבסיס צינור הפה, וממכל נפרד אחר השתחררו פרורי לחם צבועים בירוק.
250 שנה בדיוק עברו מאז שהופע הברווז המעכל, ומהנדסים ממשיכים בסדרם להמציא מכונות ובדרך, כהרגלם, מתבלבלים מהמכונות שבנו, ומייחסים להן בפואטיות מה שהן לא יכולות לעשות — חיקוי של חיים. הפעם על שולחן הניתוחים נמצאות השפה, התודעה והאינטליגנציה האנושית שעוברים המשגה מחודשת באמצעות מודלים של שפה טבעית. המפורסם מהם — ChatGPT, תפס את הכותרות והדמיון הציבורי בחודשים האחרונים, ולפי אחדים הפך עדות למכונה ששולטת בשפה ומחזיקה באינטליגנציה שדומה באופן עקרוני לזו של האדם. "בהתחשב ברוחב ובעומק היכולות של GPT-4, אנו מאמינים שניתן לראות בו באופן סביר גרסה מוקדמת (ועדיין לא שלמה) של מערכת בינה מלאכותית כללית (AGI)", כתבו צוות חוקרים ממיקרוסופט, המשקיעה הגדולה ב־OpenAI, על GPT-4, הדור הבא מעורר הציפיות לצ'אטבוט המפורסם בעולם עם השקתו. "[המודלים הם] הטכנולוגיה האדירה ביותר שהאנושות פיתחה עד כה", אמר סם אלטמן מנכ"ל OpenAI (ושכח כנראה את האנטיביוטיקה, החשמל, הנורה, האינטרנט וכו') על הטכנולוגיה שלדעתו בסופו של דבר תייצג "את הכוח הקולקטיבי, היצירתיות והרצון של האנושות".
"ChatGPT לא מתחיל אפילו להיות אינטליגנטי", מצנן את ההתלהבות פרופ' רוני קציר בנחרצות בראיון "לכלכליסט", "גם אם שמים בצד את עניין השפה, רואים שההכללות שלו לא נכונות, שהוא מפספס דפוסים פשוטים שכל אחד מאיתנו היה מבין בקלות. בני אדם מזהים דפוסים ומכלילים מצוין - במובן מסוים אנחנו מדענים מלידה - אבל ChatGPT ושאר המודלים העדכניים לא מבינים ולא טובים בלמצוא הכללות. אגב, זה לא שיש איזו סיבה לחשוב שמכונות לא יוכלו להיות אינטליגנטיות מתישהו בהמשך, אבל המודלים הנוכחיים ממש לא בכיוון. הם התקדמות מוצלחת ברמה השימושית אבל לא מעבר לזה".
קציר, בלשן תיאורטי וחישובי שעומד בראש המעבדה לבלשנות חישובית באוניברסיטת תל אביב, מצוי בימים אלו כמו קומץ בלשנים אחרים בקרב מאסף. בזמן שמהנדסים בונים מודלים כמו ChatGPT, גלקטיקה של פייסבוק או Bard של גוגל, הוא ועמיתיו נאלצים להדוף טענות הולכות וגוברות כי מה שחשבנו על שפה, אינטליגנציה או איך שפה נרכשת אינו נכון. "גם אחרי שהמודלים הללו קראו את כל האינטרנט, כמויות מידע עצומות שקשה לדמיין אותן", מוסיף קציר ומסביר, "הם עדיין לא מצליחים להבין היבטים פשוטים של תחביר שילדים מבינים אחרי זמן קצר מאוד".
המודלים שמכונים "מודלי שפה גדולים" (או LLMs) הם כלים סטטיסטיים לניבוי מילים ברצף. כלומר, אחרי אימון על מערכי נתונים גדולים, המודלים מנחשים באופן מתוחכם איזו מילה צפויה להגיע אחרי איזו מילה (ומשפט אחרי משפט). המודלים היום גדולים במיוחד ואומנו על נתונים ממקורות מגוונים כמו ויקיפדיה, קורפוסים של ספרים וסריקות דפי אינטרנט גולמיים. למידה אינטנסיבית זו מאפשרת למודל, בהינתן טקסט קלט מסוים, לקבוע באופן הסתברותי מה מאוצר המילים הידוע לו יגיע אחר כך. אף שהמודל יודע לבנות צירופים משכנעים, התוצאה שהוא מפיק לא קשורה ולא מתקשרת באופן מכוון לשום רעיון לגבי העולם. בכל זאת, ולפחות לפי OpenAI ואחרים, המודלים הללו מראים זיק של הבנה או היגיון, דמיון לאינטליגנציה אנושית. ביומיום כבר מייחסים לצ'אטים הללו "יצירתיות", שמגדירה לכאורה מחדש את הקוגניציה האנושית, ובגוגל מתכנת פוטר אחרי שקבע כי מודל השפה שפותח בחברה "בעל מודעות" וניסה לשכור עבורו עו"ד כדי שזה ייצג את האינטרסים שלו. במיקרוסופט כאמור הסבירו בהודעה לעיתונות כי "GPT-4 השיג צורה של אינטליגנציה כללית [כפי] שהוכחה על ידי יכולות הליבה המנטליות שלו (כגון חשיבה, יצירתיות ודדוקציה)".
עם זאת, הרעיון שאנו צועדים קדימה לקראת "בינה כללית מלאכותית" (AGI) מעורר מחלוקת, בעיקר בקרב בלשנים שמסבירים שרהיטות דקדוקית, גם אם ברמה גבוהה, עדיין רחוקה מאוד ממכונה שמסוגלת לחשוב. "המודלים טובים מאוד בלהתאמן על קורפוס מידע גדול", ממשיך קציר, "כל דור חדש של מודל מקבל יותר מידע להתאמן עליו מהדור הקודם וגם יותר נוירונים מלאכותיים, והם טובים מאוד בלאסוף סטטיסטיקות רבות על תצפיות של מילים. הם לא מבינים באמת מה הרצפים האלו אומרים ולא יודעים על מה הם מדברים, אבל הם מאוד טובים בלרכז את המידע הזה וליצר סטטיסטיקות של איך טקסטים נראים ואז הם זורקים אלינו בחזרה כל מיני המשכים באופן שנראה מאוד משכנע, כי זה דומה מאוד לכל מיני דברים שהם ראו המון פעמים בכל מיני מקומות. אבל המודל לא מבין שום דבר, והוא גם לא מנסה להבין. זה כלי הנדסי עם מטרה שימושית, כמו השלמה אוטומטית. בני האדם, לעומת זאת, מארגנים את המידע שאנחנו מקבלים בצורה שמאפשרת לנו לנסח דברים מעניינים וחדשים, פעמים רבות באופן שממש לא תואם את הסטטיסטיקות הקיימות, ואנחנו לרוב יודעים על מה אנחנו מדברים".
ואם הם ילמדו יותר? הם יצליחו לשלוט בשפה כמו שאנחנו יכולים?
"אנחנו בני האדם מגיעים מוכנים מראש למשימה הזו באופן מולד. יש לנו בסיס מוחי מסוים שמאפשר לנו לארגן את המידע, ויש לנו שיטות למידה שמאפשרות לנו ללמוד טוב ולהכליל בדרכים שיטתיות ממעט מידע. כך ילדים מגיעים בכמה שנות חיים לשליטה בשפה. המודלים ההנדסיים הגדולים האלה הם משהו מאוד שונה. הם מתאמנים על מה שמקביל לאלפי שנות חיים, ועדיין לא מתקרבים בכלל לרמת הידע וההבנה שיש לילדים. למשל, כל ילד שגדל בסביבה דוברת עברית יודע שהמשפט 'הילד שדינה ראתה אתמול ויוסי יפגוש מחר הוא דני' זה משפט טוב בעברית, בעוד ש'הילד שדינה ראתה אותך אתמול ויוסי יפגוש מחר הוא דני' הוא משפט גרוע. אבל כשבדקנו אוסף שלם של מודלים עדכניים, חלקם כאלה שאומנו על קורפוס שגדול במספר סדרי גודל ממה שילדים שומעים, המודלים העדיפו את המשפט השני, הגרוע.
עם כל השכלולים ההנדסיים שלהם, המודלים פשוט רחוקים מדי מהקוגניציה האנושית. הם מגיעים למשימת הלמידה עם מערכת ייצוג שונה משלנו ועם יכולת היסק מוגבלת"
"זה לא שהמודלים לא יכולים ללמוד את ההבחנה בין שני המשפטים בהינתן מספיק מידע. למיטב ידיעתנו הם יכולים. אבל זה שהם לא מגיעים להבחנה הזו בהינתן כמות המידע שילדים מקבלים מראה שהמודלים מאוד שונים מאיתנו. זאת רק דוגמה אחת כמובן. המחקר הבלשני מספק עוד הרבה דוגמאות מהסוג הזה. עם כל השכלולים ההנדסיים שלהם, המודלים פשוט רחוקים מדי מהקוגניציה האנושית. הם מגיעים למשימת הלמידה עם מערכת ייצוג שונה משלנו ועם יכולת היסק מוגבלת ושונה משלנו, והתוצאות בהתאם, אפילו אחרי האימון הכל כך אינטנסיבי שהם עוברים. היכולות שלהם אולי מספיק טובות לכלי עזר הנדסי, אבל לא כדאי להתבלבל ולחשוב שמדובר במשהו שממדל אותנו".
ראינו שהתחילו להשתמש בבוטים כדי לכתוב ספרים ושיש שחוששים שהוא הופך כה חזק שהוא מהווה ממש סכנה קיומית למין האנושי.
"אני חושב שספרים שייכתבו עם ChatGPT יהיו פשוט ספרים לא טובים, כי המודל לא באמת מבין ולא באמת מקורי. אולי הוא יוכל לעיתים לכתוב עבודות סמינריוניות שבמבט שטחי ייראו רציניות, אבל זה בסדר, לא זה מה שמדאיג אותי. זה רק יאלץ את המרצים למצוא דרכים טובות יותר להעריך את הידע וההבנה של תלמידים. הדאגות שלי אחרות. בעיה אחת שמדברים עליה לא מעט היא שהמודלים האלו מזיקים סביבתית - טביעת כף הרגל הפחמנית שלהם היא גדולה מאוד. בנוסף, מכיוון שהם קוראים טקסטים קיימים אז הם משחזרים סטריאוטיפים ודעות חשוכות. אותי אישית מדאיג במיוחד שכלי מהסוג הזה יכול לאפשר הפצה של מידע מזויף בקנה מידה לא יתואר. מי שירצה יוכל להשתמש בו כדי להציף את הרשתות החברתיות, ויקיפדיה וכתבי העת במידע שקרי או מגמתי ובטיעונים מוטים או סתם מבלבלים. זה יכול לפגוע ביכולת של אנשים להבין את המציאות ולקבל החלטות מושכלות, והתוצאה היא נזק חברתי ופגיעה ביכולת של דמוקרטיות להתקיים.
"הסכנה כרגע היא לא שהמודל עצמו אינטליגנטי וירצה להזיק - זה אולי יקרה בעתיד, אבל המודלים הקיימים לא אינטליגנטים ולא רוצים שום דבר. הסכנה היא שהמודל יהיה כלי שימושי עבור אנשים שרוצים להרע. כלי כזה דורש רגולציה. כמו שיש רגולציה לגבי איזה וירוס מותר להנדס במעבדות, אז צריך רגולציה גם לגבי דברים כאלה".
לפי קציר, הטשטוש בין מה שמודלים אלו עושים ואינטליגנציה אנושית, בין אם מכוון או לא, קשור לבלבול בין מושגים ומטרות. כדי להבהיר את הנקודה מחזיר אותנו קציר לרגע ומבלי לשים לב לעולם הדימויים של ווקנסון. "מדע והנדסה הם שני דברים שונים. ברוב התחומים זה לא משהו שמבלבל אותנו. למשל, אנחנו יכולים לעשות מדע ולחקור איך ציפורים עפות, ואנחנו יכולים לעשות הנדסה ולבנות מכונות מעופפות. רובנו יודעים שמדובר בשני דברים שונים. אבל כשזה מגיע לשפה, הרבה אנשים מתבלבלים למרות שמדובר באותה ההבחנה. הבלשנות, כמדע קוגניטיבי, חוקרת את המנגנון שיש לבני האדם בראש ושאחראי ליכולת הלשונית האנושית. זה כמו לחקור ציפורים. וההנדסה בונה מודלים כמו ChatGPT. זה כמו לבנות מכונות מעופפות. זה יכול להיות שימושי מאוד לבנות מטוסים, אבל זה משהו אחר, פרויקט נפרד לחלוטין מלהבין שפה בבני אדם.
"אף אחד לא חושב שבגלל שהוא בנה מטוס טוב יותר אז הוא פתר את השאלה של איך ציפורים עפות. הנדסה זה לא ניסיון להבין איך העולם עובד. זה ניסיון לבנות כלי שימושי. במקרה של המודלים מהסוג של ChatGPT זה כלי שיכול לעזור לנו לכתוב אימיילים ושורות קוד מהר יותר. אנחנו מתפעלים מ־ChatGPT משום שהוא שיפור משמעותי לעומת כלים הנדסיים קודמים שהכרנו. הטקסטים שהוא משלים באמת נראים מאוד טוב. אני חושב שגם יש הנאה מסוימת מלדמיין שהדבר הזה אינטליגנטי, אם כי זו טעות כמובן. ובכל מקרה, כמו שמטוס לא מסביר לנו ציפורים, כך גם ChatGPT לא מסביר לנו איך היכולת הלשונית של בני האדם עובדת".