סגור
גג עמוד techtalk דסק

סוצקבר הכריז על AI בטוח ואחראי. האם זה אפשרי?

שם המיזם החדש של איליה סוצקבר, ממייסדי OpenAI שעזב ברקע חילוקי דעות על בטיחות המוצר, כולל בתוכו הרבה היסטוריה ותככים פנימיים. אנחנו ניצבים בצומת שיכריע אם פנינו לאסון לאנושות – או פריחה חסרת תקדים

אם לא הספיקו לנו המונחים AI, אינטליגנציה מלאכותית, בינה מלאכותית, GEN AI או מודלי שפה גדולים (LLM), הגיע אלינו בשבוע שעבר איליה סוצקבר, ממייסדי OpenAI שבמהלך ההכרזה שלו שעוררה הדים הוא גם הכניס ללקסיקון ההיי-טק העמוס ממילא את המונח "סופר-אינטליגנציה" והשאיר אותנו לנסות ולהבין מה השתנה.
זמן קצר אחרי שעזב את OpenAI על רקע חילוקי דעות בנוגע לבטיחות מוצרי החברה, הודיע סוצקבר על הקמת המיזם "Safe Superintelligence", שבבסיסו הנדסה ופיתוח של מודל בינה מלאכותית נוסף, אשר לדבריו נמצא ממש מעבר לפינה. השם לא מקרי. הדגש על היבט הבטיחות מכיל בתוכו עולם ומלואו, וכנראה גם הרבה היסטוריה ותככים פנימיים.
ההכרזה הנוכחית מעלה כמה שאלות מידיות. האם מדובר בחברת ה-AI הראשונה שפועלת לקידום בטיחות במוצר? האם "בינת העל" המדוברת אכן מאפילה על כל קודמותיה? האם המיקוד והשם המיוחד היו נולדים לעולם ללא סערת OpenAI, הפיטורים (והחזרה) של סם אלטמן והמעורבות של סוצקבר בכל הנושא? ובכן, צר לי לאכזב, אך התשובה לשלוש השאלות היא כנראה "לא". מה אנחנו כן יכולים ללמוד מההכרזה?
סוגיית הבטיחות והאתיות של מודלי ה-AI היא בין החשובות ביותר בתהליכי הפיתוח ושחרור היכולות לציבור הרחב. ניירות עמדה ללא סוף מפי גופי תקינה וקובעי סטנדרטים, לצד התפתחויות רגולטוריות יומיומיות, יעידו על המרוץ לשים רסן על היצירה החדשה, לאור ההבנה המוכרת לנו שעם כוח גדול מגיעה אחריות גדולה.
כשמדובר על בטיחות ואתיקה של מודלים שכאלו, לרוב תשומת הלב תהיה לשלושה היבטים עיקריים. ראשית, שקיפות האלגוריתם - אלמנט קריטי בבינה מלאכותית. כאשר מערכת משתמשת באלגוריתם, חשוב להבין את המידע שהאלגוריתם משתמש בו, את המשקלים שהוא מעניק לכל פרמטר ואת הקריטריונים שהוא משתמש בהם לקביעת הפלט. ללא הבנה של אלו, מבחן התוצאה נשאר מוגבל בלבד.
היבט נוסף הוא עמידה ברגולציה וסטנדרטים בינלאומיים. למרות הזינוק המהיר בתחום, נעשה מאמץ גדול להגדיר במסגרת סטנדרטים ורגולציה פיתוח ושימוש אחראי בבינה מלאכותית. זה כולל הגדרת גבולות, כגון בסיסי המידע שהאלגוריתמים יכולים להשתמש ואילו לא, היבטי שקיפות, ביקורות בטרם פרסום מודלים חדשים וכן אמצעים להשבתת חירום ככל שנדרש.
1 צפייה בגלריה
רוני שליט סמנכ"ל אכיפה ואתיקה בברייט דאטה Bright Data
רוני שליט סמנכ"ל אכיפה ואתיקה בברייט דאטה Bright Data
רוני שליט
(צילום: Bright Data)
ההיבט השלישי נוגע למהירות שבה הבינה המלאכותית מתפתחת. אנחנו עדים לשינויים רבים בקצב שיא בתחום חדש, ועדיין רב הנסתר על הגלוי. חשוב להיות ערניים לטרנדים ולהתמקד בפתרון האתי של בעיות חדשות שעלולות להתעורר. זה כולל ניסיון להבין את הטכנולוגיות החדשות, לפתח כלים ומערכות יעילות, ולהבין את ההשפעות האפשריות שלהן על החברה והכלכלה.
שלושת הנושאים הללו הם בעיקר חיצוניים ולא תלויים רק בחברה או בסוצקבר עצמו. לכן, בטיחות בתחום הבינה המלאכותית תלויה רבות בדרישות מחוץ לחברה (שקיפות למחזיקי עניין), הגדרת מערכת כללים וחוקים על ידי רגולטורים והתאמה אל מול שינויים (התפתחויות בכלל התעשייה). אין בזה כדי להמעיט מחשיבות היושרה והאתיקה המקצועית של סוצקבר והצוות שאיתו – ללא ספק מחשובי המומחים בתחום - אולם הדבר נכון לכל תחום פיתוח חדש, החל מתעשיית התרופות ועד תעשיית הרכב. כך גם בפיתוח בינה מלאכותית.
כבר היינו בצמתים כאלו בעבר. הצלחנו לרסן המצאות גדולות עם יכולת להמיט אסון על האנושות או להביא לפריחה גדולה. אופנהיימר צוטט לאחר ניסוי פצצת האטום הראשון כמי שאמר "הפכתי למוות עצמו, משמיד העולמות", אך יש שיבחרו דווקא בחכמה המוצגת בציטוט של חברו אלברט אינשטיין: "מי שמעולם לא טעה, מעולם לא ניסה דבר חדש". באילו מן המצבים אנו נמצאים כעת, נוכל לדעת רק בראייה לאחור.
רוני שליט הוא סמנכ"ל אכיפה ואתיקה (VP Compliance and Ethics) בחברת ברייט דאטה