סגור
ד"ר לימור זיו מנכ"לית  Humane AI
ד"ר לימור זיו, מנכ"לית Humane AI (צילום: תמי בר שי)

דעה
דאטה פגום, בינה מסוכנת: המשבר הדחוף שמאיים על עתיד ה-AI

האנשים שבונים את ה-AI של העתיד מזהירים: חסר לנו דאטה איכותי לבניית המודלים, כזה שאינו מסכן את הלקוחות והחברה. כ-80% ממפתחים ואנשי דאטה בכירים בעולם מעידים – זו בעיה דחופה וחמורה בבניית מוצרי בינה מלאכותית, שעלולה להרוס שותפויות עסקיות, לפגוע באמון הלקוחות ולגרום להפסדים משמעותיים 

בוקר אחד, צוות ההנהלה של סטארט-אפ פינטק אירופי התעורר למשבר לא צפוי. שותפות אסטרטגית עם בנק בינלאומי – שהייתה קריטית להמשך צמיחת החברה – התערערה בעקבות בעיה חמורה במודל הבינה המלאכותית שלהם. המודל, שתוכנן להעריך סיכוני אשראי עבור לקוחות הבנק, ביצע החלטות שגויות שחזרו על עצמן באופן עקבי. תחקיר מהיר חשף את השורש לבעיה: הדאטה שהיווה את הבסיס לאימון המודל היה פגום. נתונים חסרים, נתונים מעוותים, והטיות שלא נלקחו בחשבון הפכו את המודל לכזה שאי אפשר לסמוך עליו. חברה שעד לא מזמן צמחה במהירות והייתה מקור לגאווה, מצאה את עצמה פתאום במשבר עסקי ומיתוגי חריף.
במחקר מקיף שערכנו ב-Humane AI עם 74 מפתחים ומנהלי מחלקות דאטה בכירים ובכירות בעולם, גילינו נתון מדאיג: כ-70% הודו שהם נאבקים באיכות ירודה של דאטה בתהליכי אימון מודלי AI. מתוך אלו, 79% הצביעו על כך כבעיה הדחופה והקריטית ביותר. הבעיה הזו אינה נשארת מאחורי דלתות סגורות של צוותי הפיתוח – היא משפיעה על כולנו: בבנקים שמחליטים למי להעניק אשראי, בבתי חולים שמנסים לאבחן ולספק טיפול נכון, בכבישים שבהם נוסעים רכבים אוטונומיים, ואפילו בצ׳אטבוטים שאמורים לייעל תהליכים עסקיים. הבינה המלאכותית, שהפוטנציאל שלה לשנות את חיינו הוא עצום, לעיתים קרובות מדי מסתמכת על דאטה-סט ירוד שמוביל לתוצאות שגויות והרסניות.
דאטה-סט פגום עשוי לכלול נתונים חסרים, נתונים לא מעודכנים, או נתונים ממקורות לא מהימנים. כאשר מערכת בינה מלאכותית מקבלת החלטות על בסיס דאטה כזה, התוצאות עלולות להיות הרסניות. תחשבו על מערכת בריאות שמקבלת המלצות טיפול על בסיס נתונים חלקיים או מוטעים – החלטות כאלה עלולות להוביל להשלכות מסוכנות ואף לפגיעה במטופלים. בדומה לכך, התאמת מוצר ללקוח הלא נכון או תחזיות כלכליות לא מדויקות עלולות לגרום להפסדים כספיים משמעותיים, לפגיעה במוניטין ולפגיעה באמון המשקיעים.
טעויות בעבודה עם דאטה אינן עניין זניח – הן עלולות לגרום לעיכוב בהשקת מוצרים, לפגיעה באמון הלקוחות והמשקיעים, להפסדים עסקיים, ולכישלון בעמידה ברגולציות מחמירות. במציאות שבה חברות משקיעות מיליונים במודלים המתקדמים ביותר, דאטה שאינו מדויק הופך את כל ההשקעה הזו לחסרת ערך. לכן, הבטחת איכות הדאטה היא לא רק כלי להצלחה – אלא תנאי הכרחי להישרדות בעולם הבינה המלאכותית.
האתגר ביצירת דאטה איכותי נוגע להיבטים רבים: הוא חייב להיות לא רק מדויק ומעודכן, אלא גם מגוון ונטול הטיות. איסוף דאטה כזה דורש גישה למקורות רבים, השקעה בתהליכי ניקוי ותיוג, והקפדה על רגולציות של פרטיות ואבטחת מידע. חברות רבות מבינות את חשיבות ניהול הדאטה, אך חסרים להן הכלים והמשאבים הנדרשים לכך.
הבעיה המרכזית שעומדת בפני חברות העובדות עם בינה מלאכותית היא הפער בין הצורך בנתונים איכותיים ומדויקים לבין מה שהן באמת מקבלות בפועל. סטארט-אפים נכנסים לשוק עם התלהבות מהפוטנציאל של AI, אך נתקלים בבעיות חמורות כתוצאה מהתבססות על נתונים לא איכותיים, מה שעלול לפגוע בפיתוח המוצרים שלהן ולהפוך את הפוטנציאל לסיכון משמעותי.
חברות רבות מתקשות להתמודד עם השאלה הזו, בין אם בגלל מחסור במשאבים לניהול דאטה בצורה מקצועית ומקיפה, ובין אם בשל היעדר תשתיות מתאימות ותהליכי בקרת איכות. ניהול איכותי של דאטה אמנם דורש השקעה, אך הוא מהווה תנאי קריטי להצלחת הבינה המלאכותית והבטחת הישרדות החברה בשוק התחרותי.
איכות הדאטה היא הרבה מעבר לבעיה טכנית – היא נוגעת לשרידות הארגון ולכושר ההישרדות בשוק התחרותי. נתונים לא איכותיים וניהול לקוי עלולים להפוך את הבינה המלאכותית מהזדמנות עסקית לסיכון משמעותי. כדי להתמודד עם אתגרי איכות הנתונים, חברות חייבות להשקיע במערכות מתקדמות לניהול ואיכות נתונים, לבצע בדיקות קפדניות על מקורות הדאטה ולהטמיע כלים שמסייעים בזיהוי והתמודדות עם בעיות פוטנציאליות מבעוד מועד. ככל שיותר חברות יכירו בכך שהבסיס לפיתוח מוצר מוצלח טמון בנתונים איכותיים, כך נוכל להתקדם לעבר טכנולוגיה טובה, בטוחה ואמינה יותר.
ד"ר לימור זיו היא מנכ"לית Humane AI, סטארט-אפ לניהול סיכוני בינה מלאכותית