הקרב על עתיד ה-AI: מה מסתתר מאחורי הרגולציות באירופה ובארה"ב?
הקרב על עתיד ה-AI: מה מסתתר מאחורי הרגולציות באירופה ובארה"ב?
המירוץ העולמי אחר יישומי בינה מלאכותית, הכניס הרבה מאוד חברות וארגונים לתנופת פיתוח אדירה והטמעת GenAI במוצרים שלהם, או בניית מוצרים חדשים המבוססים של AI. כראייה ניתן לראות את הזינוק בשווי של חברה Nvidia אשר הפכה לחברה הציבורית הגדולה בעולם, עם כ-80% מהשוק של שבבי הבינה המלאכותית שהתפתח כאשר OpenAI, מיקרוסופט, אלפבית, אמזון, מטה ואחרות מיהרו להשיג את המעבדים הדרושים לבניית מודלים של AI.
בדומה לענקיות הטכנולוגיה, גם חברות SaaS רבות חוששות להישאר מאחור ולאבד אטרקטיביות והכנסות בקרב לקוחות קיימים וחדשים. חברות רבות נמצאות בצומת הבחינה, הטמעה ויישום של AI, הן ברמה החיצונית כאשר רוצות להעניק מוצר טוב יותר למשתמשים, והן פנים ארגונית לשפר את האיכות, להגדיל את המהירות ולחסוך בעלויות של משימות שיכולות להתבצע על ידי בינה מלאכותית.
ככל שהטכנולוגיה מתקדמת יותר, בין היתר בזכות בינה מלאכותית, המורכבות ליצירת כללים וחוקים שיגנו על המשתמשים הולכת גדלה, ובתוך זה נדרשות הגדרות רגולציה שיהיו ברורות ליישום ואפקטיביות בצמצום הסיכונים מצד אחד, ומיצוי הפוטנציאל המהפכני של הטכנולוגיה מהצד השני.
למעשה ישנם לא מעט סיכונים הקשורים באתיקה, אפליה, מעורבות אנושית, שקיפות הסברתית, אמינות, עמידות, אבטחת מידע, בטיחות, אחריותיות ופרטיות.
ניתן להניח שבמרוצת הזמן הבינה המלאכותית תהפוך ליותר ויותר אינטליגנטית, עצמאית, בעלת יכולות לביצוע פעולות בצורה אוטונומית ותגיע למצב היפותטי שנקרא Superintelligence - אינטליגנציה העולה בהרבה על זו של המוחות האנושיים המבריקים והמחוננים ביותר.
לאורך ההיסטוריה חדשנות טכנולוגית קדמה לרגולציה, שהכרחית במקרה זה להתמודד עם סיכונים רבים הקשורים לביטחון שלנו כבני אדם, חברות ומדינות. הרגולציה, שנמצאת בשלבים שונים של התהוות במקומות רבים בעולם, תאפשר נטילת יוזמה להבטיח שהשילוב של הבינה המלאכותית ייעשה בצורה אחראית ובהלימה למגוון אינטרסים חברתיים וכלכליים, ומן העבר השני ניסיון לפעול באופן הדרגתי ובהלימה לנעשה בעולם כדי לא לייצר חסמים שעלולים למנוע מחברות שירותים ומוצרים חדשניים או להגביל את החברה.
בנוסף, בפן העסקי חברות רבות יידרשו לאמץ ולהטמיע תקינה והרגולציה בנושא AI כחלק מאסטרטגיית חדירה לשווקים חדשים, ולא יוכלו להסתפק בדרישות מופחתות, השקעה מצומצמת בטכנולוגיית בינה מלאכותית ללא השקעה במנגנוני בטיחות בהתאמה, ומסמכי מדיניות פנימיים. מאידך, הן יצטרכו תהליכים פשוטים שלא יכבידו על המהירות וייצרו מצב של עיסוק בלתי פוסק בעמידה ברגולציה, במקום במהירות ובצרכים העסקיים של החברה.
אירופה וארה"ב יקבעו את הטון ברגולציית AI
הגם שישראל היא אומת הסטארטאפ, נראה שהצפי הוא כי ארה"ב ואירופה יהיו הראשונות לפתח ולאמץ רגולציות וסטנדארטים של AI וכי כל העולם יתיישר על פיהן. בארה"ב, המיקוד הוא על חדשנות וביטחון לאומי, עם גישה המעודדת רגולציה עצמית של התעשייה, חוקים ספציפיים לכל מגזר וקווים מנחים אתיים. באירופה לעומת זאת, הדגש הוא על בטיחות, הוגנות וזכויות יסוד, עם גישה מקיפה לרגולציה של בינה מלאכותית ועקרון הזהירות.
מהפכת הרגולציה הקודמת שהגיעה מאירופה והביאה לשינויים בחברות ישראליות ולא מעט חברות טכנולוגיה גלובאליות הייתה GDPR. אלה הן תקנות הגנת הפרטיות שכל חברה שמוכרת לאזרחי האיחוד האירופי צריכות לעמוד בהן. למרות שהתקנות הללו התייחסו רק לאזרחי אירופה, החברות הישראליות, המוכרות את המוצרים שלהן מסביב לעולם, הבינו שהן חלות גם עליהם, מאחר וחלק מהלקוחות שלהם ממוקמים פיסית באירופה, או אזרחים אירופאיים. בכל הנוגע ל-AI, הטכנולוגיה הישראלית נמכרת בכל העולם, כך שהן רלוונטיות כמעט לכל חברת טכנולוגיה ישראלית.
מה צפויות להיות הדרישות מחברות המפתחות יישומי AI?
בדומה לתקינות אחרות, המטרה של הרגולציה בראש ובראשונה היא להבטיח שהשימוש בטכנולוגיות בינה מלאכותית יהיה בטוח, הוגן, ושקוף, תוך שמירה על פרטיות המשתמשים והגנה על זכויותיהם, ובמקביל לעודד חדשנות והתפתחות טכנולוגית. הרגולציה תידרש לענות על שאלות רבות כמו מהי ההגדרה הנכונה לשמירה על ביטחון המשתמשים? איך מטמיעים AI מחד ומאידך מתייחסים לצרכים אתיים ללא הטיות ואפליות בשקיפות? איך נשמור על פרטיות ואבטחת המידע? מי אחראי לשגיאות ונזקים שנגרמים על ידי AI? כיצד נבטיח פעולה בטוחה ואמינה של מערכות AI? מי יפקח על יישום ואכיפת הרגולציה?
ככל שזה נוגע ל-AI, הגבולות די פרוצים. אחת הדוגמאות לניצול לרעה של AI בתחום אבטחת המידע היא השימוש בטכנולוגיה למתקפות פישינג מתקדמות. תוקפים יכולים להשתמש ב-AI לכריית מידע מרשתות חברתיות וממקורות ציבוריים כדי לאסוף נתונים על הקורבנות הפוטנציאליים, כמו שמות, מקומות עבודה, תחומי עניין וקשרים אישיים.
לאחר מכן, הם מפעילים מודלים של למידת מכונה ליצירת הודעות דוא"ל מותאמות אישית, שמחקות הודעות אמיתיות מארגונים או אנשים שהקורבן מכיר וסומך עליהם. ההודעות נשלחות לקורבנות ונראות כאילו הן מגיעות ממקור אמין, עם קישורים מזויפים שמפנים לאתרים שנראים לגיטימיים אך נועדו לגנוב מידע אישי כאשר הקורבן מזין את פרטיו. AI מאפשר לתוקפים לבצע את המתקפות בהיקף רחב יותר, עם התאמות אישיות לכל קורבן, מה שמעלה את הסבירות להצלחה. אם הקורבנות נופלים בפח ומזינים את פרטיהם באתרים המזויפים, המידע הגנוב יכול לשמש את התוקפים לגניבת זהות, גניבה כספית, או גישה לא מורשית למערכות ארגוניות, מה שיכול להוביל לנזק רחב היקף לאנשים ולעסקים. כיצד הארגון יכול למפות נכון את כל המצבים לשימוש לרעה בטכנולוגיה שלו ולאפשר ביקורת מהימנה ואיכותית?
נכון לכתיבת מאמר זה, הרגולציות עדיים בשלבים התחלתיים בעולם בנושאי הרגולציה לבינה מלאכותית. חברות משקיעות בממוצע כ-97%-99% מתקציבי המחקר והפיתוח במוצרים חדשים המפיקים רווחים לארגון ונאבקים בתחרות הגוברת, ורק 3% (במקרה הטוב) במנגנונים ובדיקות הקשורים לבטיחות כחלק מתהליכי הפיתוח של AI. הדגש הוא על מוסכמות שיוודאו כי הטכנולוגיות שעוברות תחת הרגולציה יהיו בטוחות, מאובטחות ושניתן לסמוך עליהן. האתגר הוא להגדיר מסגרת בקרות שלא יגבילו את הטכנולוגיות שיכולות להועיל לחיים שלנו ומאידך, יידעו לצמצם את הפגיעויות למימד שניתן לקבל.
המדינות מבינות שעובדות נקבעות בשטח והן חייבות להתערב כדי למנוע שימוש לרעה במהירות האפשרית, כך שנראה כי בקרוב מאוד יגיעו חדשות בדבר התקדמות ברגולציות ותקנים חדשים, החברות יידרשו ליישם אותן במהרה כדי להבטיח איזון בין אימוץ הטכנולוגיה במהירות לבין הסיכונים החדשים שנוצרים לחברות בפרט ולאנושות בכלל.
הכותב הוא מייסד ומנכ"ל חברת Scytale