פרופ' יחזקאל ישורון: "אל תסמכו על כך שביג דאטה יעזור לנו כי לפעמים הוא זה שמפריע"
ישורון, חוקר בכיר בביה"ס למדעי המחשב באוניברסיטת ת"א וממייסדי ForeScout, בוועידת Mind the Data 2017 של "כלכליסט", סבור כי "המצב קיים בזיהוי שגוי לגבי מחלות אמיתיות זהה לעולם הסייבר" והוא ממליץ "להקטין את המרחב או לפתח שיטות חסינות בפני זיהוי מוטעה"
"הפרנויה שיש לנו לגבי ביג דאטה ובינה מלאכותית אולי מקדימה את זמנה", כך אמר פרופ' יחזקאל ישורון, חוקר בכיר בביה"ס למדעי המחשב באוניברסיטת תל-אביב וממייסדי ForeScout, בוועידת Mind the Data 2017 של "כלכליסט" בשיתוף בנק לאומי.
- ג'וליה וויט: "90 אחוז מהחברות במדד Fortune 500 משתמשות בענן של מיקרוסופט"
- מפקד יחידת לוט"ם: "מלחמת הגרילה היא אתגר לצה"ל. האויב אינטליגנטי יותר מבעבר"
- אילן בוגנים: "הלקוחות שגדלו במהפכת האינטרנט רוצים שהבנק יספק להם תובנות בזמן אמת"
פרופ' ישורון הסביר את המורכבות בהסתמכות על ביג דאטה בעולם הסייבר: "יש לנו הרבה סוגים של איומים. נסתכל על עולם הרפואה. קמתם בבוקר, הלכתם לרופא והוא אומר שיש נקודה חשודה ושולח אתכם לבדיקה למחלה נדירה מאוד אבל מסוכנת. זו בדיקה מדויקת שאמינה ב-99% לשני הכיוונים. אתם עושים את הבדיקה, מחכים במתח ומקבלים את התוצאות שמראות שאתם חולים. מה סיכוי שאתם חולים באמת? אולי תגידו 99%, אבל התשובה האמיתית במקרה הזה היא שאין לנו מושג כי חסר נתון חשוב והוא מה השכיחות של המחלה ומה גודל האוכלוסייה. אם זו מחלה מאוד נדירה נגיד 1 ל-10 מיליון, אז הסיכוי שאתם חולים הוא שבריר אחוז".
המצב קיים בזיהוי שגוי לגבי מחלות אמיתיות זהה לעולם הסייבר הסביר ישורון: "יש תולעי אינטרנט, וירוסים באינטרנט וכל מיני דברים שאנו מנסים להתמודד איתם על ידי שימוש בביג דאטה וטכנולוגיות של למידת מכונה ובינה מלאכותית".
הבעיה לדבריו חוזרת להיות למרחב שנבדק. "נניח שיש עיר עם מיליון תושבים, שהרוב הם אזרחים שומרי חוק ורק 100 הם טרוריסטים. יש מערכת אוטומטית לזיהוי פנים עם 99% לזהות טרוריסט שהוא באמת טרוריסט ואחוז אחד לזהות אזרח שומר חוק כטרוריסט. המערכת מסתכלת על האנשים בתור ומדליקה פעמון אזעקה. זו אמורה להיות מערכת אוטומטית שיורה בו. מה הסיכוי שהמערכת צודקת? הסיכוי הוא 1 ל-100 שהוא באמת טרוריסט וכבר ירינו בו", אמר פרופ' ישורון.
לדבריו, הסכנה בזיהוי שגוי עומדת מול השפעותיהן של אזהרות שגויות אשר מרדימות את שומרי הסף על אבטחת מידע. ישורון סיפר בעניין זה על פריצה למאגרי המידע של חברת TARGET שהתרחשה לפני שנתיים. "חברת סייבר בדקה את המקרה והודיעה ששבועיים לפני הפריצה היה סימן אדום שהזהיר על סיכון אמיתי. TARGET בדקה זאת ומצאה שזה נכון. זו הייתה הודעה אחת מתוך 15 אלף הודעות אמיתיות אחרות שהיו באותו יום. זה מציג בעיה של שימוש בטכנולוגיות סטטיסטיות שלמידת מכונה מבוססת עליהם כדי לאתר מטרות ולפגוע בהן באופן אוטומטי. כל עוד יש אחוז של זיהוי מוטעה יש בעיה עם פעולה אוטומטית, ובסוף נצטרך לקחת את כל ההתרעות ולעשות איתן משהו", אמר פרופ' ישורון.
הוא הדגיש כי תופעת "זאב זאב" פוגשת אותנו בנקודות שונות בחיים מספר ישורון: "פעם היינו מתעוררים באמצע הלילה עם מערכת אזעקה מצפצפצת ולא היינו מתקשרים למשטרה אלא לשכן כדי להרוג אותו שיכבה אותה מהר. ידענו שהאזעקות היו מופעלות גם על ידי חתולים. גם היום הלקוח מכבה לפעמים את הנורה האדומה כי יודע שיש התרעות שווא".
כדי לאזן בין התעלמות בשל התרעות שווא לפחד מהחמצת סכנה אמיתית, מציע ישורון לנהוג בגמישות: "אפשר לבחור את המלחמה הנכונה במקרים בהם המרחב שלנו והעולם התרעות השווא יהיו יחסית נמוכים. אז גם אם נרצה ניתוח אנושי להתרעות נוכל להסתדר. מצד שני אם העולם מורכב מטריליון אירועים ביום של המידע הגולמי שעובר באינטרנט, הסיכוי שנייצר מערכת בינה מלאכותית שתאתר באופן מושלם את הסיכונים הוא נמוך. אם נפעל על מרחב קטן של אנשים יש סיכוי שזיהוי יעבוד. למשל מערכת של זיהוי דרכונים יעבוד אבל אם נציב מערכת זיהוי אנשים באצטדיון אנחנו נזהה טרוריסטים אבל גם כאלו שלא ושיזוהו ככאלו בטעות".
"ההמלצה שלנו להקטין את המרחב או לפתח שיטות שהם חסינות בפני זיהוי מוטעה", סיכם פרופ' ישורון, "זה אפשרי אבל אין ארוחות חינם. קשה להחזיק את המקל משני קצוותיו. אל תסמכו שביג דאטה יעזור לנו כי לפעמים הוא זה שמפריע לנו".