ראש הממשלה שלח לך סרטון? הכלים שיאבחנו מה אמיתי ומה לא
ראש הממשלה שלח לך סרטון? הכלים שיאבחנו מה אמיתי ומה לא
השנה ייערכו בחירות ביותר מ־50 מדינות בעולם, מה שהביא לעלייה משמעותית בזיוף תמונות וקול של פוליטיקאים בעזרת AI. כלי חדש עוזר לזהות את הזיוף, אבל זה לא מספיק
כבר חודשים ארוכים ששימוש בבינה מלאכותית גנרטיבית מציף קמפיינים פוליטיים ברחבי העולם: בסלובקיה, כמה ימים לפני יום הבחירות לנשיאות, הקלטת אודיו שנוצרה על ידי בינה מלאכותית ובה זויפו קולותיהם של כמה מועמדים שלכאורה דנים בהונאת בחירות — נהפכה לוויראלית. בבריטניה פרסומת שבה זיוף עמוק של ראש הממשלה רישי סונאק הגיעה למאות אלפי משתמשי פייסבוק. בארצות הברית אלפי מצביעים של המפלגה הדמוקרטית זכו לשיחת טלפון עם קולו המשובט של הנשיא ג'ו ביידן; בעוד בטיקטוק נחשפה רשת חשבונות שהתחזו לאמצעי תקשורת, לרבות קריינות שנעשתה בשיבוט קולו של הנשיא לשעבר ברק אובמה. מקרים נוספים של שיבוטי קול של פוליטיקאים צצו בשנה החולפת בהודו, ניגריה, סודן, טייוואן, מולדובה, דרום אפריקה, בנגלדש ואתיופיה.
הטכנולוגיה שיכולה לייצר תוצרים כאלו קיימת כבר שנים, אבל בשנתיים האחרונות היא נהפכה ליותר מציאותית והרבה יותר נגישה לקהל הרחב. עלות הרמאות הפכה זניחה והיכולת להבחין בין אמת ושקר היטשטשה. העובדה כי במהלך 2024 יותר מ־50 מדינות יצביעו - דחקה ברגולטורים ברחבי העולם למהר לגבש חקיקה בנושא שתגביל שימוש בכלי בינה מלאכותית כדי ליצור טקסט, אודיו ווידיאו. אך גם כשהם ממהרים, הם איטיים יותר מכל התפתחות טכנולוגית, ובפועל נוצר ואקום רגולטורי. הסכנה גדולה וידועה, הכלים חופשיים וחינמיים - והעשייה חלושה. "בואו לא נעמוד בצד בזמן שהבחירות שלנו נדפקות", אמרה הסנאטורית איימי קלובשר במרץ, "אנחנו ברגע 'השיער עולה באש', לא ברגע 'בואו נחכה שלוש שנים ונראה מה קורה’".
כמובן שלא כל שימוש בבינה מלאכותית גנרטיבית שלילי. למעשה בבחירות בהודו, מעריכים צמד החוקרים ונדיניקה שוקלה וברוס שנייר מהארוורד, השימוש בבינה מלאכותית היה בסופו של דבר חיובי בבחירות הענק שהתקיימו שם לאחרונה. "במדינה עם 22 שפות רשמיות וכמעט 780 שפות לא רשמיות, מפלגת BJP אימצה כלי בינה מלאכותית כדי להנגיש את הנשיא מודי לבוחרים באזורים שבהם הינדית לא מובנת בקלות", כתבו וציינו כי לאו דווקא התוצרים הסינתטיים הם המסוכנים, אלא כלי ההפצה. "אם נעשה בה שימוש בטוח ואתי, הטכנולוגיה הזו יכולה להיות הזדמנות לעידן חדש בממשל ייצוגי", סיכמו. המילה "אם" היא נקודת המפתח, ואין להקל בה ראש.
לחץ שנוצף במידע מטעה
הלחץ שנוצר סביב החשש שנוצף במידע מזויף ומטעה שתכליתו להונות אותנו, מחלחל לכל כיוון. כך, למשל, יצאה הוראה מממשל ארצות הברית כי על חברות לפתח ולסמן כל תוצר סינתטי שמופק על ידי המחוללים שלהם, בישראל פרסמה במאי המשטרה פנייה ציבורית לקבלת מידע על "כלים אנליטיים לזיהוי עריכת סרטונים ולזיהוי Deepfake", באירופה הנציבות האירופית פנתה לרשתות החברתיות הגדולות שיסמנו כל תוכן שנוצר על ידי בינה מלאכותית בפלטפורמה שלהן. בפברואר 20 חברות טכנולוגיה חתמו במינכן על "הסכם חדש למאבק בשימוש מטעה בבינה מלאכותית בבחירות 2024". בהקשר זה OpenAI, גוגל וגם מיקרוסופט הודיעו על עיכוב שחרור של כלים שמשכפלים קול, תוך שהן מצטטות חששות בנושא זיופים עמוקים בבחירות הקרובות. זמן קצר אחר כך אקדמאים, חוקרים ומנהיגים בתחום חתמו על מכתב פתוח. "ממשלות חייבות להטיל רגולציה בכל שרשרת האספקה כדי לעצור את התפשטות הזיופים העמוקים", כתבו.
כל המהלכים האלה, למרבה הצער, אינם מחייבים או טומנים בצידם עונשים אם חברה לא תעמוד בהבטחותיה. ובזמן שנבחרי הציבור יוצאים בהצהרות, גורמי האכיפה פותחים מכרזים ואנשי טכנולוגיה מקימים חברה חדשה ש"תפתח מוצרים באופן בטיחותי", הזמן דוחק, הטכנולוגיה רק משתפרת ומהווה איום כבר עכשיו. כלים שנועדו להבחין בין תוצרי בינה מלאכותית ותוצרים אותנטיים, רובם פותחו באקדמיה, מתקשים היום יותר ויותר להעריך נכונה האם תמונה, קול או וידיאו הם סינתטיים או לא. בו בזמן לחברות שמפתחות את המודלים שאחראים לתוצרים אלו אין תמריצים לפתח כלי זיהוי, והזירה מופקרת להשפיע באופן תרמיתי על דעת קהל או שיעורי ההצבעה. לד"ר אורן עציוני, מנכ"ל מייסד של מכון אלן לבינה מלאכותית (AI2), נמאס מזה, והוא החליט לעשות מעשה. "אנחנו מנסים לתת לידי אנשים כלים להבחין מה אמיתי ומה לא. היכולת לזהות חשובה לדמוקרטיה".
את העמותה ללא מטרות רווח TrueMedia.org הקים בינואר, ובאפריל הם כבר שחררו כלי ראשון חינמי של בודקי עובדות. באמצעות שיתופי פעולה רחבים עם חברות בתחום ומודלים מהאקדמיה פיתחו ב־TrueMedia כ־15 מודלים לאודיו, וידיאו ותמונות, ואלו פועלים לזהות אם התוצר נוצר על ידי בינה מלאכותית או לא. "המערכת עובדת בדיוק של בערך 90% אז זה אומר שהיא בהחלט תעשה טעויות והיא בהחלט עושה טעויות במצבים מסוימים", מסביר עציוני לכלכליסט, ומזכיר שלמרות חשיבות פיתוח הכלים - האדם הוא במרכז: "בסופו של דבר, אי אפשר בלי השכל הישר ושאנשים גם יבדקו את מקורות המידע. אין תשובה מוחלטת".
אין תשובה מוחלטת גם בשל מרוץ החימוש האגרסיבי בין כלים שמזהים תוצרי בינה מלאכותית, ומאמץ של חברות בינה מלאכותית להפיק תוצרים שמטשטשים עוד ועוד את הקו בין המציאות לסינתטי. משחקי חתול ועכבר אלו מייצרים תוצרי לוואי לכל כיוון, והחשש מהזיופים מהווה איום משל עצמו, כשאנשים יכולים להשתמש בחשש זה כדי לטעון שתכנים אמיתיים הם למעשה מזויפים.
הזיהוי מגיע אחרי החשיפה
השיטה שבה משתמשים ב־TrueMedia היא פסיבית — מאמץ לזהות תמונה או סרטון כמזויפים אחרי שהם נוצרו. במקרה הספציפי הזה באמצעות הזנת אותו תוצר אל הפלטפורמה של TrueMedia. אבל לגישה זו חיי מדף קצרים יחסית בגלל ההתקדמות הטכנולוגית וגם פעמים רבות מגיעה מאוחר מדי, אחרי שהזיופים כבר נראו על ידי מאות אלפים אם לא יותר. הגישה חייבת להיות משלימה — אקטיבית, שבה מטביעים בזמן היצירה עצמה מעין "רעש" דיגיטלי שיזהה אותו לאורך כל חייה באינטרנט כסינתטית. הבעיה היא, שוב, התמריצים. "יש חברות שיש להן גם מודלים וגם רשתות חברתיות", מציין עציוני ומאיר רק אחד מהקונפליקטים האדירים בתחום שבו גוגל גם מחזיקה במודל ג'ימני וגם צריכה לנהל את יוטיוב, ולמטא יש את המודל LLaMA וגם את אינסטגרם, פייסבוק ווטסאפ. תוצרים רבים שעולים ומייצרים תנועת גולשים רבה הכרחיים למודל העסקי שלהן מצד אחד, אך מצד שני הן לכאורה מתחייבות שוב ושוב להילחם בתופעה. "חשוב שהן יחליטו איך הן מתמודדות עם הצד של הרשת החברתית, אבל הרבה מהן מעדיפות לא להתמודד. רק במקרים קיצוניים הן אולי מסמנות או מורידות את התוכן מהרשת. הן יכולות לעשות יותר", אומר עציוני.
הפרויקט של עציוני הוא רק אחד מבין כמה, אם כי לא רבים כפי שהייתם מדמיינים. במאי OpenAI הודיעה כי בנתה כלי שיכול לזהות ברמת דיוק של 99.8% תמונות שנוצרו על ידי מחולל טקסט לתמונה שלה DALL-E 3, אבל הכלי לא מסוגל לזהות תוצרים שהופקו במודלים אחרים, והיא גם העניקה גישה אליו רק לקבוצה מצומצמת של חוקרים, וגוגל ומטא הודיעו באותו הזמן כי יצטרפו לוועדת ההיגוי של הקואליציה למקור ואותנטיות של תוכן (C2PA) במאמץ לפתח מעין תו תקן בנושא.