ראיון כלכליסט
"ננתק את הפייק ניוז מהפרסומות ואז הן ייעלמו"
הבינה המלאכותית בשירות המערכה על האמת: הסטארט-אפ AdVerif.ai של הישראלי אור לוי פיתח אלגוריתם AI שמזהה חדשות מזויפות ושקריות. המטרה: לחנוק את צינור ההכנסות שמזין את היוצרים שלהן
- הפיתרון של פייסבוק לפייק ניוז: שאלון ברמה של כיתה ג'
- בין הפייק לניוז: משיכת החבל של פייסבוק והתקשורת העולמית
- מרדוק: על פייסבוק לשלם למו"לים על החדשות שמופיעות אצלה
אך עד כה המלחמה שלהן לא נשאה הצלחה מרובה או אפילו הישגים סמליים. הנזיפות שקיבלו בכירי החברות מחברי הקונגרס לא שינו הרבה את המצב. גם לא האסטרטגיות השונות והמשתנות שהציגו פייסבוק וגוגל, מסימון ידיעות החשודות כמזויפות ועד הצגת ידיעות ממקורות אמינים באותו נושא.
אך יש מי שחושב שדווקא הוא יכול להצליח היכן שחברות של מיליארדי דולרים נכשלו בעזרת צוות של שלושה אנשים בלבד, מערכת בינה מלאכותית (AI) ורעיון פשוט: כלים שיאפשרו לחנוק את צינור החמצן של האתרים שמייצרים ומפיצים פייק ניוז ולחסום את הגישה שלהן לפרסומות.
"בתחום הפייק ניוז יש סוג של מירוץ חימוש בין AI טוב לזיהוי חדשות מזויפות לבין AI רע שמשמש לייצור שלהן", אמר אור לוי, מייסד ומנכ"ל AdVerif.ai. "היום ה-AI הטוב מפגר אחרי הרע, וזו הבעיה שאנחנו מנסים לפתור". לוי, בעל תואר ראשון בהנדסת תעשייה וניהול מאוניברסיטת תל־אביב ותואר שני באחזור מידע מהטכניון, עבד במשך שש שנים באיביי בתפקידי ניתוח ומחקר והתמקד בניתוח ודירוג אוטומטי של פרסומות. לפני שנתיים נשלח לאמסטרדם, שם התחיל להתעניין בשימוש בבינה מלאכותית להתמודדות עם פייק ניוז וזיהה לדבריו את הזדמנות בתחום.
לוי עזב את איביי, גייס שני דוקטורים מקומיים והקים את הסטארט-אפ שלו באמסטרדם. חודשים ספורים לאחר מכן היה לחברה פתרון רב שלבי מבוסס AI לזיהוי והתמודדות עם פייק ניוז.
"לפייסבוק לא בהכרח משתלם לטפל בפייק ניוז"
"בשלב ראשון אנחנו לוקחים תוכן שרוצים לנתח, למשל כתבה לפיה הילארי קלינטון זומנה לשימוע ב-FBI", הסביר לוי את פעולת האלגוריתם שלו. "קודם כל נסתכל על המקור וננסה להבין האם הוא מהימן או אתר שמפיץ פייק ניוז בקביעות. יש לנו מאגר מידע שבנינו שמסווג אלפי אתרי פייק ניוז, אתרי קליקבייט, אתרים מוטים פוליטית וגם אתרי סאטירה.
"שנית, אנחנו מנסים לזהות האם תוכן הכתבה הופרך בעבר בעזרת אתרי אימות עובדות כמו Snopes או FactCheck, שצברו ארכיון של מאות ואלפי מאמרים שמפריכים ידיעות מפוברקות ושמועות. בתחום הזה יש המון חומרים ממוחזרים שמנסים להריץ אותם מחדש".
מה קורה במקרה של סיפור חדש שרק החל לרוץ ברשת?
"במקרה של תוכן חדשותי משמעותי אנחנו מצפים לדיווח באתרי החדשות הגדולים ולא רק באתרים קיקיוניים. אם אנחנו רואים ידיעה כזו שמגיעה ממקור לא מאומת אנחנו בודקים אם היא מופיעה גם במקורות לגיטימיים, ואם היא לא אז היא מסומנת כחשודה. השלב הבא הוא שימוש במודלים של למידת מכונה לזיהוי דפוסים של תוכן בעייתי. קשה להגיד מה אמת ומה שקר, אבל המיקוד שלנו הוא לבחון מה מתאים לדפוסים שמאפיינים פייק ניוז. למשל בחינה של מילות מפתח שמופיעות בטקסט, שכן כתבות בנושאים פוליטיים חשודות יותר כפייק ניוז מכתבות בנושאי מזון.
"דפוסים אחרים הם יותר בלשניים ופסיכולוגיים, כמו סגנון כתיבה וסנטימנט. כתבות פייק ניוז כוללות הרבה יותר סנטימנט ודעתנות, יש בהן שימוש יתר בשמות תואר ובשמות פועל וגם סגנון הכתיבה יותר פשטני: משפטים קצרים יותר, שימוש בסימני פיסוק פחות מורכבים, מחסור במרכאות לציון ציטוטים. כל מיני דברים קטנים שמצטברים ומאפשרים למודל לזהות תוכן חשוד בפייק ניוז.
"חלק מהדפוסים אינטואיטיביים וקל להבין אותם, אבל האלגוריתם מזהה גם דפוסים מורכבים שאנחנו לא יכולים להסביר וקשים לתיאור. זה כמו קופסה שחורה. קשה להבין מהדפוסים שהאלגוריתם מזהה בין אלו נקודות הוא מחבר".
לוי מעריך את הדיוק של המערכת שפיתח ב-90%, נתון שלדבריו גבוה בהרבה ממערכות אחרות כמו אלו של גוגל ופייסבוק. עם זאת, הוא אומר שהוא ואנשיו "לא מתיימרים להיות טובים מגוגל ומפייסבוק, שיש להן מחלקות AI שמנסות לטפל בבעיה הזו. אבל כדאי לקחת בחשבון שלחברות הגדולות לא בהכרח יש אינטרס לטפל בבעיה הזו כי היא מאד רווחית מבחינתן".
"להתמודד בזריזות עם ידיעות שהופכות ויראליות"
הפתרון של AdVerif.ai לא מיועד למשתמשי קצה אלא לעסקים שרוצים לצמצם את מעורבותם בפייק ניוז ובפרט לרשתות פרסום מקוונות. "לקוחות רשתות הפרסום רוצים להימנע מפרסום באתרים של פייק ניוז", הסביר. "האתרים הללו מייצרים תעבורה רבה ורוצים למנף אותה לעשיית כסף מפרסומות. אך אף מפרסם גדול לא רוצה להיות מקושר לאתרים הללו.
"המערכת שלנו מאפשרת לחסום הצגה של פרסומות באתרי פייק ניוז וכן לחסום הצגת פרסומות עבור אתרים מסוג זה על גבי אתרים לגיטימיים. צינור הכסף של אתרי הפייק ניוז מגיע מרשתות הפרסום. אם נצליח לנתק את הצינור הזה, המודל שלהם לא יהיה רווחי והם יעברו הלאה. זה הדבר הכי יעיל במלחמה בהם".
במקביל עובדת החברה עם גופי ממשל וכן עם קמפיין EU vs Disinformation שמפעיל האיחוד האירופי כחלק ממלחמתו בתעמולה פרו-רוסית באינטרנט. "אנחנו עוזרים להם בין היתר באיתור תכנים בעיתיים", אמר לוי. "במקום שהמתנדבים שלהם יסרקו את הרשת בחיפוש אחר כתבות בעייתיות אנחנו מזהים את התכנים ומספקים להם דו"ח שמאפשר להם לעבוד ולהפריך את המידע. נוסף לאיתור המאמרים היתרון שלנו הוא האפשרות לתעדף: אנחנו בודקים מה יותר ויראלי, מה זוכה ליותר שיתופים בפייסבוק או מגיע מאתרים עם יותר תעבורה. אם יש משהו בעייתי שהופך לוויראלי אפשר לטפל בו די מהר".
לוי טוען שרתימת הבינה המלאכותית למלחמה בפייק ניוז היא קריטית, בעיקר משום שהגורמים שמייצרים את הידיעות השקריות כבר משתמשים בה לצורכיהם. "לפי דו"ח של חברת המחקר גרטנר מאוקטובר האחרון, עד 2022 תושבי המדינות המפותחות יצרכו יותר פייק ניוז מתוכן אמיתי", ציין.
"זה קצת מעורר תהיות אבל זו התחזית. לטענתם, ההתפתחויות האחרונות בתחום הבינה המלאכותית מקלות על פברוק התכנים. היה למשל מקרה שלקחו נאום של נשיא ארה"ב לשעבר ברק אובמה ושתלו לו מילים חדשות וזה נראה טבעי לחלוטין. לא מדובר רק בטקסטים או תמונות מפוברקות אלא גם בזיוף וידאו שהולך ומשתפר והכלים שמאפשרים לבצע את הזיוף הופכים ליותר ויותר נגישים".
איך מתמודדים עם איום כזה? איך מנתחים וידאו?
"זה אתגר מורכב, לטענת גרטנר כלי ה-AI הרבה יותר טובים בייצור פייק ניוז מזיהוי שלהן. אפשר לפרק את הווידאו לתמונות ולבחון אם יש שם דברים חשודים, או לתמלל את הווידאו ולנתח את הטקסט. אבל אין עדיין תשובה מוחלטת לבעיה הזו".