דו"ח טכנולוגיהסיפור על גברת סמית' והנזק שעושה פייסבוק לעולם
דו"ח טכנולוגי
הסיפור על גברת סמית' והנזק שעושה פייסבוק לעולם
שתי חשיפות נוספות בנוגע להתנהלות הרשת החברתית, שעוסקות בדרך בה בוחרת החברה לקדם ולהפיץ תכנים רעילים ובעייתיים, מבהירות שוב: הנזקים של פייסבוק עולים בהרבה על התועלת שלה, החברה יודעת את זה - ולא אכפת לה. כעת כבר ברור שהבעיה של פייסבוק שקולה למצב חירום עולמי, בעל נזקים דומים בהיקפם - גם אם לא בחומרתם - לאלו של הקורונה
פייסבוק משקרת. זה ברור כבר לכולם, מציאות שאי אפשר להתעלם ממנה. אמנם רבים מאתנו כבר חשדו בכך או ידעו זאת לפני חודשים ושנים, אבל הספין הקבוע של החברה – נעשו טעויות, אני מתנצלים ועושים מאמצים להשתפר – איפשר לרבים אחרים לתת לה ליהנות מספק. השבועות האחרונים, בעקבות חשיפת מסמכים מפייסבוק וההדלפות של פרנסס האוגן, שינו את התמונה. אם מישהו עדיין מאמין לתגובות, לספינים ולהכחשות של פייסבוק, כנראה שהחברה משלמת לו הרבה כסף בשביל זה. השאלה עכשיו היא מה עושים, כי עם כל יום שעובר, עם כל מסמך נוסף שיוצא לאור, מתברר שפייסבוק גורמת לנזקים ממשיים, משמעותיים, וידועים היטב לחברה שאינה מעוניינת לפעול נגדם.
כתבתי כאן לא מעט על סדרת התחקירים של הוול סטריט ג'ורנל, שבאמצעות מסמכים פנימיים חשפה מגוון עוולות, מחדלים וכשלים בענקית הטכנולוגיה. בין השאר חשפו התחקירים מחקרים פנימיים שהחברה ערכה וגנזה על הפגיעה של אינסטגרם בצעירים; תוכנית סודית שהעניקה יחס מועדף לסלבס בכל הנוגע לצנזור פוסטים וחסימות; התעלמות מבישה מפעילות סחר בבני אדם וסחר בסמים בפלטפורמות שלה; כישלון למנוע הפצת פייק ניוז סביב הקורונה והחיסונים; ואת הכישלון של בינה מלאכותית לטהר את הרשת החברתית מביטויי שטנה ואלימות.
סוף השבוע האחרון הביא שתי חשיפות מטרידות לא פחות, שכבר לא היו מוגבלות לוול סטריט ג'ורנל. חלק מהמסמכים המפלילים שסיפקה האוגן ל-SEC ולקונגרס הועבר לקונסורציום של עיתונאים, ואלו החלו לנפק סדרה של חשיפות עוכרות שלווה. לא במה שהן חושפות על הנזקים של הרשת החברתית, אלא בהבנה שהן מספקות על הקף הידע המוקדם ובזמן אמת שהיה לפייסבוק על חשיפות אלו.
קחו, למשל, את קרול סמית'. זהות פיקטיבית של משתמשת שמרנית מקרולינה הצפונית שנוצרה על ידי עובדת פייסבוק בקיץ 2019 במטרה לבדוק את פעילות אלגוריתם ההמלצות בפייסבוק. תחומי העניין של סמית' הביעו עניין בנושאים כמו פוליטיקה, הורות ונצרות ובמותגים כמו פוקס ניוז ודונלד טראמפ. בתוך יומיים, אף שמעולם לא גילתה עניין בנושאים אלו, החלה פייסבוק להמליץ על קבוצות של QAnon (תיאוריית הקשר המטורללת שטוענת שהעולם נשלט על ידי דמוקרטים פדופילים עובדי כת שטן, שרואה בטראמפ כמשיח שבא לטהר אותם, ושעקרונותיה נמצאים ביסוד אירועי ה-6 בינואר).
סמית' לא הצטרפה לקבוצות הללו, אך האלגוריתם לא התרגש. בתוך שבוע, הפיד שלה היה מלא בפוסטים מקבוצות ומעמודים שהפרו את כללי הקהילה של פייסבוק בנוגע למיסאינפורמציה ודיבור שטנה. "החוויה של סמית' היתה מטח של תוכן קיצוני, קנונייתי וגרפי", כתבה החוקרת שיצרה את הזהות של סמית' במסמך פנימי שנחשף בין השאר ב-NBC News ובניו יורק טיימס. "זה היה זרם קבוע של תוכן מטעה ומפלג באיכות נמוכה".
פייסבוק, כמובן, ניסו למסמס את חשיבות הממצאים. "בשעה שמדובר במחקר על משתמשת היפוטתית אחת, זוהי דוגמה מושלמת למחקר שהחברה עושה כדי לשפר את המערכת וליידע את ההחלטה שלנו להסיר את QAnon מהפלטפורמה", נמסר מהחברה. התגובה מתעלמת מכך שפייסבוק החלה להסיר קבוצות שקשורים ל-QAnon רק שנה מאוחר יותר, באוגוסט 2020, ואסרה לחלוטין על פעילות התנועה בפלטפורמה שלה רק באוקטובר אותה שנה – וגם אז רק בתגובה ללחץ ציבורי משמעותי.
החוקרת עזבה את פייסבוק באוגוסט 2020. "פייסבוק חושפת משתמשים, ביודעין, לסיכונים", היא כתבה במכתב הפרידה שלה. "ידענו במשך יותר משנה שמערכת ההמלצות שלנו יכולה מהר מאוד להוביל משתמשים לתיאוריות וקבוצות קונספירציה. בינתיים, קבוצות ואמונות שוליים גדלו לממדים לאומיים, עם מועמדים לקונגרס תומכי QAnon והאשתגים וקבוצות QAnon במיינסטרים".
במקום לזכות את החברה, כפי שמנסה פייסבוק לטעון בתגובתה, הממצאים של קרול סמית' רק מרשיעים אותה יותר. הם מוכיחים שפייסבוק ידעה כבר ב-2019 על הקף הפעילות של QAnon ועל כך שהאלגוריתם מכווין משתמשים לעמודים הקשורים לתנועה, אך בחרה להתעלם מהבעיה ולתת לה להמשיך לגדול ולהתפשט, במקום לבלום אותה כשעוד היתה קטנה יחסית. מי יודע איך העולם היה נראה היום אם פייסבוק היתה פועלת על סמך הממצאים שלה מ-2019 בזמן אמת ולא בוחרת להתעלם מהם, כי זה טוב לתעבורה?
ולא מדובר בפעם היחידה שבה פייסבוק בחרה להתעלם מאזהרות עובדים סביב הטרלול והחירוב המתמשך שתרמה החברה למערכת הפוליטית בארה"ב. ב-5 בנובמבר, יומיים אחרי הבחירות, עובד פייסבוק התריע שמתחת לפוסטים רבים נאספות תגובות עם "מיסאינפורמציה נפיצה על הבחירות". חמור עוד יותר, תגובות עם התוכן הנפיץ ביותר נבחרו על ידי האלגוריתם להופיע בראש התגובות הרלוונטיות ביוותר.
ארבעה ימים מאוחר יותר, מדען נתונים בחברה כתב לעמיתיו ש-10% מכל הצפיות בתוכן פוליטי בארה"ב – 1 מכל 50 צפיות בסך הכל – היו של פוסטים שטענו לרמאות בבחירות. "יש גם הסתה לאלימות בשוליים", הוא התריע. הנהלת פייסבוק כשלה לספק מענה לתגליות. למעשה, היא עשתה את ההיפך מהאזהרות שקיבלה מעובדיה, והחלה להקל באמצעים שהפעילה בתקופת הבחירות ושנועדו להגביל תוכן מסוג זה, כמו הפחתת התפוצה של עמודי ימין קיצוני.
המסמכים של סבב זה לא מספקים הצצה מושלמת להליך קבלת ההחלטות בפייסבוק, אך עולה מהם שהעובדים עצמם סבורים שהנהלת החברה יכולה היתה לעשות יותר. "האכיפה היתה לא אחידה", נכתב במרץ האחרון בביקורת פנימית שעסקה בהתמודדות החברה עם תנועת Stop the Steal. "אנחנו מקווים שהפוסט-מורטם ישמש כמדריך לאיך להשתפר בפעם הבאה".
מחוץ לארה"ב? לא מעניין
מה שיפה בפייסבוק, זה שהיא שוויונית בנזק שלה, מפיצה אותו מסביב לעולם ללא הבדלי דת, גזע או מין. כולם יכולים להנות מהנזקים של פייסבוק, כל עוד יש להם חיבורת לרשת. זה הכוח של רשת חברתית בתפוצה עולמית מלאה כמעט. מסמכים פנימיים של פייסבוק שעוסקים בהודו, השוק הגדול של החברה עם 340 מיליון משתמשים, מציגים תמונה דומה מאוד למה שקרה בארה"ב.
גם שם, במקרה זה בפברואר 2019, חוקר פייסבוק פתח חשבון חדש, כדי לבדוק מה דוחפת הרשת החברתית למשתמשים במדינת קֶרַלָה בדרום-מערב הודו. במשך שלושה שבועות, החשבון פעל לפי כלל בסיסי: מעקב אחרי כל ההמלצות האלגוריתמיות להצטרף לקבוצות, לצפות בסרטים ולגלות עמודים חדשים. התוצאה היתה, מדווח הניו יורק טיימס, שיטפון של שטנה, מיסאינפורמציה ואלימות. "המבדק של הניוז פיד הפך למטח כמעט קבוע של תוכן לאומי מקטב, מיסאינפורמציה, אלימות ותוכן גרפי", כתב החוקר. "ראיתי יותר תמונות של אנשים מתים בשלושת השבועות האחרונים מאשר ראיתי בכל החיים שלי קודם לכן".
ויש עוד עשרות מחקרים שנעשו במדינה, ושחושפים בין השאר איך בוטים וחשבונות מזויפים שקשורים למפלגת השלטון ולגורמי אופוזיציה חיבלו במערכת הבחירות. מסמך אחד גילה ש-40% מהחשיפות הנפוצות ביותר במדינת מערב בנגל היו של תוכן "מזויף/לא-אותנטי". חשבון מזויף אחד רשם 30 מיליון חשיפות.
מסמכים אחרים גילו שתוכנית של צוקרברג להתמקד ב"אינטראקציות חברתיות משמעותיות" שמבוססות על תקשורת עם משפחה וחברים הובילוו דווקא לתפוצה רחבה יותר של מידע שגוי, במיוחד בזמן מגיפת הקורונה. קבוצות אנטי-מוסלמיות, שבהן מוסלמים כונו "חזירים" או "כלבים" ושהפיצו טענות שקריות שלפיהן הקוראן מצווה על מוסלמים לאנוס את בנות המשפחה שלהן, הורשו לפעול ללא הגבלה.
מחדל התגובה מצד פייסבוק קשור לכך שהחברה לא הקצתה די משאבים על מנת להתמודד עם הבעיות השונות בהודו. 87% מהתקציב להתמודדות עם זיהוי וסיווג של מידע שגוי הוקצה לארה"ב, ורק 13% לשאר העולם. וזאת, בשעה שצפון אמריקה מספקת רק 10% מהגולשים הפעילים ביום ברשת החברתית.
פייסבוק טענה בהקשר זה שהמספרים חלקיים, ולא כוללים בודקי עובדות חיצוניים, שמרביתם נמצאים מחוץ לארה"ב. גם תגובה זו עושה יותר להרשיע מאשר לזכות, כי פייסבוק מודה למעשה שאין לה עניין בניטור התוכן השקרי בפלטפורמה שלה מחוץ לארה"ב, והיא מעדיפה לעשות מיקור חוץ של פעילות זו לגורמים שאינם קשורים אליה ישירות ושאפילו לא עובדים בעבורה על תקן עובדי קבלן. באופן נוח, היא גם מתעלמת מדיוווחים לפיהם בודקי העובדות בהודו לא מתעסקים עם מידע שגוי שמפיצה מפלגת השלטון.
הודו, כמובן, לא לבד. מסמכים אחרים חושפים שפייסבוק גלגלה לאחור אמצעים שנועדו להפחית תוכן מסוכן במיאנמר אחרי הבחירות במדינה, אף שמחקר פנימי הראה שהאמצעים היו יעילים בהפחתת הצפיות בפוסטים עם תוכן מסית ב-25.1% ובתמונות עם מידע שגוי ב-48.5%. בסרי לנקה, משתמשים יכלו להוסיף בקלות מאות אנשים לקבוצות, וכך לחשוף אותן לתוכן מסית לאלימות. באתיופיה, מליציות לאומניות תיאמו קריאות לאלימות בפייסבוק.
הגילויים האחרונים מחזקים את החשיפות על פייסבוק מהשבועות האחרונים ומבהירים: הנזקים של פייסבוק עולים בהרבה על התועלת שלה, החברה יודעת את זה, לא אכפת לה מכך, והיא משקרת לגבי הידע שלה והמהלכים שהיא מבצעת. פייסבוק לא תשתנה, היא לא רוצה להשתנות, והיא לא תעצור בכוחות עצמה.
מצב חירום עולמי דורש פעולה נחושה, מתואמת, משמעותית ומיידית. זה הזמן שמנהיגי המדינות השונות יסכמו ביניהם מה פעולה כזו יכולה להיות. הנזק היומיומי שגורמת החברה לא מאפשר עוד להתמהמה.