האם ניתן לפקח על פיתוח ה-AI?
האם ניתן לפקח על פיתוח ה-AI?
הפיתוח המואץ של אפליקציות AI ומורכבות התוצאה, מראות שקיים קושי מהותי לפקח על השימוש וההתפתחות העתידית של AI. הבעייתיות הזו דרבנה את האיחוד האירופי לפתח נוהל AI-ACT במטרה לפקח כך, אלא שגדולי המפתחים ואנשי החזון בתחום AI מודים בכך, שכבר לא ניתן לפקח על המשך הפיתוח. יש לעצור מיידית ולקבוע גבולות ברורים ביותר לגבי המשך הפיתוח.
בשנה האחרונה מוצרי חברת OpenAI התפתחו באופן מהיר. ובראשם אפליקציית ChatGPT, ממשפחת הבינה המלאכותית היוצרת Gen AI. מוצרים המאפשרים לנו למקסם יכולות כתיבת טקסט, יצירת תמונות ואפילו יצירת אווטרים קוליים או ויזואליים. מאז שנות ה-80 וה-90 של המאה שעברה, עם התחלת המחקר והפיתוח של מערכות הבינה במלאכותית חלה התקדמות אדירה בתהליך למידת המערכות, וכיום נדרש אימון קצר הכולל הזנה של טקסט, תמונות או קטעי אודיו למערכת. לאחריו מתרחש תהליך פיענוח [הגדרת כל פריט שהוזן] עד לרגע בו האלגוריתם לומד את הפיענוח ויודע לייצר פריטים חדשים ואף להוסיף ווריאציות שונות. עד כדי הפקה של סיטואציות, תמונות, ואפילו קטעי וידאו שכלל לא התרחשו במציאות. אלא שעם העלייה הנחזית בפרודוקטוביות המוצרים הללו, שתבוא כאשר הבינה המלאכותית תעצים כל אחד מאיתנו בעולם העבודה, מגיעות כמובן גם סכנות חברתיות שעלולות לשנות סדרי עולם. היכולת להשפיע על דעת קהל באמצעות FAKE המופק מאפליקציית בינה מלאכותית לדוגמא. האפשרות הזו בעלת פוטנציאל לשינוי חברתרי משמעותי, אם נביא בחשבון שבשנת 2024 יהיו למעלה מ-40 מדינות במערכות בחירות פנימיות העשויות להיות מושפעים מתכני FAKE שפותחו בצורה מהירה וידידותית כביכול. היכולת לעשות שימוש בבינה מלאכותית להעצמת יכולות פריצת סייבר, גם היא תופעה שמתגברת ועלולה להסב נזקים גדולים.
סכנות אלו הביאו את מומחי האיחוד האירופאי לאחרונה למסור סט נהלים מקיף הנקרא AI-ACT. הנהלים הרבים מתייחסים לכל סוג של פיתוח מאגרי מידע, מודלים של שפה, אלגוריתמים מבוססי רשתות נוירונים וכ'ו. נהלי AI-ACT מתייחסים לכאורה, לכל סוגי הפעילות של מפתחי טכנולוגיית הבינה המלאכותית. כולל שמירה ותיעוד נרחב ועדכני של כל שלבי הפיתוח משליטה במקורות המידע, בפרמטרים טכניים, בתהליכי הביצוע ועד לתיעוד של כלל הגורמים המעורבים בפיתוח, שימוש, ייבוא, הפצה וייצור של טכנולוגיות. המטרה העיקרית של האיחוד האירופאי היא לוודא כי כל פיתוח יהיה גלוי, כל תהליך יהיה מפוקח וכל מפתח או מנהל יהיה מודע לאחריות שהפיתוח יעשה רק בהתאמה לצרכי הציבור. לא זו בלבד, אלא שעל פי החוק הזה, ארגון שלא יציית לו עלול להיקנס בעד 7% מהמחזור השנתי שלו ויהיה חשוף לתביעות משפטיות.
בכך האיחוד האירופאי מקווה להרתיע את החברות ולא פחות מכך, להרתיע אותנו המשתמשים משימוש לא אחראי בטכנולוגיות הבינה המלאכותית.
האם הדבר מספק? האם נהלים אלו יוכלו להגביל את פיתוח יכולות ה AI לטובת ולצרכי בני אדם בלבד?
במצב הנוכחי, תאגידי הענק הטכנולוגיים ממשיכים בתחרות חסרת תקדים במהירותה ובהקיפה וההישגים מרשימים וממשיכים להתפתח הרבה מעבר ליכולת של הרגולציה להשתלט עליה עד כי לדעת פרופ' בוסטרום, פילוסוף טכנולוגי ואחד מהגורואים בתחום הבינה המלאכותית בעולם, בשלב זה כלל לא ניתן לפקח, שכן כיום, כבר ברמת המתכנתים יש קושי בהגדרה מתמטית של כללי אתיקה או ערכים אנושיים או אפילו הגדרה של השיטה להטמיע אותם בתהליך העבודה של אפליקציות AI שהפכו להיות כה מתוחכמות, עד שכבר יש קושי להבין את תהליך הניתוח והפיענוח שלהן.
ד"ר אלון הסגל הוא ראש התוכנית למערכות מידע באקדמית רמת גן ויו"ר המרכז לחדשנות בלשכה לטכנולוגיות מידע