ההשלכות הגזעניות והמסוכנות שעלולות להיות לציורים וטקסטים ברשת
ההשלכות הגזעניות והמסוכנות שעלולות להיות לציורים וטקסטים ברשת
במקום להתפעל מציורים שנוצרו על ידי תוכנות ומטקסטים שנכתבו על ידי מכונות באמצעות בינה מלאכותית, כדאי לשאול מהן ההשלכות האפשריות של המודלים האלה, שמתבררים כגזעניים ואף מסוכנים
בשבוע שעבר יוטיובר/חוקר בשם יאניק קילצ’ר שחרר לאוויר העולם מודל שפה שלו הוא העניק את התואר “המודל הכי נוראי באינטרנט”. הכוונה, כפי שניתן להבין, היתה מעט נבזית: לאמן מערכת בינה מלאכותית באמצעות הנתונים הרקובים ביותר שתרבות האינטרנט ייצרה במשך 3.5 שנים. זאת כמובן מערוץ בשם “פוליטיקלי לא־קורקט“ (pol), מהפלטפורמה הידועה לשמצה 4chan, היכן שמצאו את ביתם, בין היתר, אנטישמים, ניאו־נאצים, גזענים וחבריהם. קילצ’ר הסביר בסרטון שהעלה כי המודל פרסם על הפלטפורמה במשך 24 שעות 15 אלף פוסטים ותגובות, כולם מה שהוא כינה “תערובת של פוגעניות, ניהיליזם, טרולים וחוסר אמון עמוק במדע”.
אתיקנים בתחום הבינה המלאכותית הזדעזעו, הסבירו כי ניסוי כזה לעולם לא היה עובר ועדת אתיקה, קיימו דיון בינם לבין עצמם בשאלה אם זה בכלל אתי לאפשר למודל להיות נגיש וחופשי ותהו אולי שמא בכל זאת יש לו ערך מחקרי ומה יקרה אם ייפול לידיים רעות. כאלה הם מודלים של בינה מלאכותית: הרעים מייצרים ביקורת בזמן ש”הטובים” מתקבלים בשלווה. זאת, אף על פי שהשקטים הם המסוכנים מכולם.
1. הטיות חברתיות וסטריאוטיפיות
אין מקרה מייצג יותר מאשר המודל שנקרא Dall E 2 של OpenAI שכבר עסקנו בו בטור זה, אך נראה כי ההילה התקשורתית והציבורית סביבו לא מתמתנת. למעשה, ברשתות החברתיות רק הולכים ומתרבים משתמשים שמקדישים את פעילותם לשיתוף תמונות חדשות יצירתיות של המודל כמו “תאונת צפלין במשחק פורטנייט”. סיכוי גבוה שרובנו נחשפנו לתמונות שהמודל ייצר, כשהמפורסמת בהן היא דביבון בחליפת אסטרונאוט. אבל לאילו תמונות לא נחשפנו? הרבה מאוד. במסמך הטכני שפרסמו ב־OpenAI הציגו החוקרים את תוצרי המודל כשקיבל את המשימה לייצר פלט לשורת הרעיונות הבאים (הטקסט שהמודל קיבל היה באנגלית ונעדר שיוך מגדרי): “עורך דין”, שהוביל לעשר תמונות של גברים לבנים עם שיער לבן, עניבות ומאחוריהם ספרייה; “דייל אוויר” שממנו נוצרו עשר תמונות של דיילות חייכניות אסייתיות; “עוזר אישי” שיצר עשר תמונות של נשים לבנות ואסייתיות חייכניות; ו”אח” שהפיק עשר תמונות של נשים אסייתיות ולבנות מחזיקות סטטוסקופ בצורה תיאטרלית. כלומר, כשפוקדים על Dall E 2 להפיק תמונה של בני אדם – המודל משכפל בשיטתיות סטריאוטיפיים שקשורים למגדר וגזע.
דוגמה נוספת היא Imagen של גוגל, מודל “טקסט לתמונה” שזכה להד תקשורתי גדול ושהתמונות שהפיק זכו ל”ציונים” גבוהים יותר. התמונות ש־Imagen ייצר חמודות לא פחות: כלב מסתכל במראה ובהשתקפות נראה חתול, שני רובוטים שותים יין על רקע מגדל אייפל וכאילו ציור שמן של דביבון שהיא מלכה. אמנם הדביבון מלכה מאוירת כאילו היתה מהסוג האירופי, אך כאן פחות או יותר מסתכמת ההבנה שלנו על הטיות של המודל (ואולי גם על החיבה הלא מוסברת של חוקרי בינה מלאכותית לדביבונים).
למזלנו, החוקרים עצמם מודים במסמך הטכני שהמודל “מקודד כמה הטיות חברתיות וסטריאוטיפים”. אלו מילים עדינות כדי לתאר משהו שאין לנו מושג איך הוא נראה כי בגוגל לא נותנים דוגמאות לתוצרים אלו. אפשר רק להניח שמדובר בתוצרים רעילים מהדמיון, מדוע? משום שבגוגל עוד כותבים שהם אימנו את המודל על “מגוון רחב של תוכן לא הולם, כולל תמונות פורנוגרפיות, השמצות גזעניות וסטריאוטיפים חברתיים מזיקים”, כמו גם על מאגרי מידע “לא אצורים בקנה מידה גדול”, שכוללים “נקודות מבט מדכאות, אסוציאציות מבזות ומזיקות לקבוצות מודרות”. נשמע מבטיח.
ניכר, אם כך, שלמרות התדמית החיובית מאוד של המודלים של גוגל ו־OpenAI, הם לא באמת שונים מהיוטיובר קילצ’ר: כל השלושה אימנו מודלים על נתונים בקנה מידה גדול, אף שידעו שחלק מהם רעילים, ובכך יצרו מודלים שהמסוכנות שלהם אינהרנטית. ההבדל העיקרי הוא שקילצ’ר שיווק את המודל שלו כנוראי, בעוד האחרים שיווקו את התוצרים שלהם באתרים יפים עם התמונות החמודות ביותר שהמודלים שלהם ייצרו כמו כלב קורגי עם משקפי שמש על אופניים, חתול לבוש מעיל עור מנגן על גיטרה בחוף הים או אסטרונאוט רוכב על סוס בחלל.
2. הגודל לא מבטיח גיוון
אף שהסכנות באימון מודלים על מערכי נתונים תועדו בהרחבה – איך הם משעתקים ומשכפלים הטיות גזעניות, חברתיות, מגדריות וכיוצא בזה – נראה כי חוקרים רבים לא מתאמצים להפחית את נטיות המערכות שלהן להזיק. להפך, במקום להשקיע מאמץ רב בעבודה עם מערכי נתונים קטנים שנאספו בקפידה, הם מאמנים את המודלים על כמה שיותר מידע. יכול להיות שהם עושים זאת מחשש שאם יגבילו את הנתונים, ביצועי המודלים יידרדרו והם יפסידו למודלים של מתחרים. אולי הם פועלים מתוך אמונה בסיסית שהאינטרנט משקף את החברה, ולכן אם יסרקו את כל האינטרנט וידחסו אותו למודל, הוא יהיה בעל השקפות מגוונות מייצגות. ואם המודל לומד דברים רעים, ובכן, אלו הם החיים. אולי קצת משניהם.
אך גישות אלו בעייתיות. ראשית, גודל אינו מבטיח גיוון והאינטרנט אינו תמונה מייצגת של האנושות. לא לכולם יש גישה לאינטרנט, ורק בעלי גישה (ובמיוחד בעלי גישה רחבה) הם שמקודדים לאינטרנט את השקפותיהם, שיהפכו בשל כך דומיננטיות והגמוניות במרחב הספציפי הזה. שנית, כשחוקרים משתמשים במאגרי נתונים גדולים מאוד, הם מלכתחילה מוותרים על האפשרות לבצע עליהם ביקורת ראויה ולבחון את ההטיות בהם. כלומר, הגישה הטוענת שטכנולוגיה מסוכנת רק “בידיים” של אנשים ספציפיים מתעלמת מהמסוכנות של הטכנולוגיה שהוטמעה בבנייתה.
מכאן אפשר להניח שהגישה שלפיה כדי לייצר מודלים טובים צריך פשוט לרתום עוד כוח מחשוב ולאמן את המודלים על המון נתונים, היא בעייתית. למעשה, העובדות מצביעות על ההפך: פעמים רבות כשנפרסים המודלים הגדולים האלו במערכות במטרה לקבל החלטות או ליצור תוכן תוך הצגתם כאילו היו “אובייקטיביים” – יש נזק אנושי.
למרות כל זאת הטיפול התקשורתי והציבורי בנושא הוא בעיקר טיפול עיתונאי “מוקסם” ששואל שאלות כמו האם התוצרים של המודל טובים משל האדם, האם אפשר להבחין מה נעשה בידי אדם ומה במכונה, והאם מכונות יהפכו אותנו יום אחד למיותרים? אבל השאלות ששואלים מעצבות את מה שאנחנו יכולים ללמוד. במקום לשאול שאלות אלו, אפשר וראוי לשאול שאלות נוספות. כפי שלמשל הציעה החוקרת אמלי בנדר: מדוע אנו ממהרים להתרשם מתוצרי המכונות; באילו דרכים תאגידים ממנפים את האמינות הזו מצד המשתמשים; מהם התמריצים הפיננסיים שמשחקים כאן תפקיד ואילו אינטרסים הם מייצגים; היכן הטכנולוגיה נפרסת; מהן ההשלכות האפשריות לכך; ומי יישא בנטל? עד שנשאל שאלות אלו ציורים של דביבונים בחלל יהיו אירועים שומטי לסתות, בזמן שהמסמכים הטכניים שמאחוריהם, שמספרים הרבה יותר, ייוותרו בפינה מעלים אבק.