פייסבוק מגייסת 3,000 איש שיחפשו תוכן פוגעני בפיד שלכם
הרשת החברתית ספגה ביקורת על כך שלא הסירה סרטונים המתעדים רצח בשידור חי. יש לה מגבלות טכנולוגיות שלא מאפשרות זיהוי אוטומטי של תוכן זוועה - לפיכך בחרה להגדיל את סד"כ בוחני הפוסטים שלה
- מיזוגניית תכנות: פייסבוק, למה את לא אוהבת נשים?
- קטינים דיכאוניים עם דימוי גוף שלילי? פייסבוק עושה מכם כסף
- רצח נוסף בפייסבוק Live: גבר הרג את בתו התינוקת
המהלך מגיע אחרי שורה של אירועים מתוקשרים שבהם הרשת החברתית הגדולה בעולם לא פעלה ביעילות מספקת להסרת תוכן פוגעני. בשבוע שעבר תיעד את עצמו גבר תאילנדי רוצח את בתו בת ה-11 חודשים בשני סרטונים שעלו לאתר באמצעות פייסבוק Live. הסרטונים הוסרו רק לאחר 24 שעות. שבוע לפני כן תיעד עצמו סטיבן סטפנס מקליבלנד רוצח עובר אורח בן 74 בשלושה סרטונים שהעלה לעמוד הפייסבוק שלו. שלושת הסרטונים שהעלה לרשת הוסרו על ידי פייסבוק כשעתיים אחרי שהועלו.
שני המקרים הובילו לביקורת ציבורית גוברת על אוזלת היד לכאורה שמגלה ענקית הטכנולוגיה האמריקאית בסינון תכנים לא ראויים. לפייסבוק אין עדיין אלגוריתם שמסוגל להבדיל בין תמונת זוועה או סרטון פוגעני ובין תוכן לגיטימי. לכן, מתבססת החברה על דיווחי גולשים וצוות שבוחן את ההתרעות המגיעות המשתמשים - כל זאת בתהליך מסורבל, איטי ומוגבל.
פייסבוק ציינה כי היא ממשיכה לפתח כלים חדשים לשיפור המצב, ביניהם יכולות בינה מלאכותית. בהקשר זה ציין צוקרברג בפוסט כי "בנוסף לגיוס אנשים, אנחנו גם בונים כלים טובים יותר כדי לשמור על הקהילה בטוחה. אנחנו נהפוך את הליך הדיווח למהיר יותר למשתמשים ולמבקרים כדי להחליט האם התוכן מפר את הסטנדרטים שלנו והאם צריך לערב את רשויות החוק".