ניתוחאי־ציות לחוקי הפרטיות עלול לחסום את ChatGPT באירופה
ניתוח
אי־ציות לחוקי הפרטיות עלול לחסום את ChatGPT באירופה
רגולטורים וחברי הפרלמנט של האיחוד האירופי מקדמים חקיקה שתמנע שימוש פרוץ במידע פרטי ורגיש כדי לפתח את מודלי השפה המתקדמים. מדענית אתיקה: "לחברות יש הבנה מוגבלת מאוד של המידע ששימש לאימון המודלים שלהן"
טכנולוגיה מודרנית דומה מאוד לסלון שסודר בחופזה. כלפי חוץ, הכל נוצץ ומבריק. אבל ברגע שפותחים את הארונות או מציצים לחדרים, מתגלית המציאות. חפצים שנזרקו בערבוביה, כביסה מלוכלכת שלא הגיעה לסל וערימות צעצועים.
כך גם טכנולוגיה. קחו לדוגמה את מודלי השפה המתקדמים שפרצו לחיינו בחודשים האחרונים, המוכר שבהם, ChatGPT של OpenAI. כלפי חוץ, מדובר בפלא טכנולוגי מודרני, פלטפורמה שמביאה יכולות חדשות, שכבר מתחילות לשבש מגוון תעשיות. אבל תציצו רגע פנימה, לתוך הקוד והמרכיבים השונים, ותגלו את המקבילה הטכנולוגית לכביסה מלוכלכת: מידע בהיקף עצום שמקורו בעייתי או עלום ושאיסופו כרוך אולי בפגיעה משמעותית בפרטיות. זאת בשילוב אקוסיסטם של פיתוח מהיר סטייל מרוץ חימוש, שנעשה בלי חשיבה מספקת על ההשלכות האפשריות. מה שצריך זה עובד ניקיון ממש טוב, ורגולטורים. כעת, בעיקר באיחוד האירופי, כבר מצטיידים במגב, חומר ניקוי ושקית זבל ענקית. על הכוונת: בעיות של פרטיות באיסוף המידע ששימש לאימון האלגוריתם, וחשש מהנזקים של פיתוח לא מבוקר של מודלים מתקדמים יותר.
המהלך הבולט ביותר עד כה הגיע מצד רגולטור הפרטיות באיטליה, שהטיל איסור זמני על פעילות ChatGPT במדינה. זאת על בסיס חשש כי נעשה שימוש רב במידע פרטי ורגיש על מנת לאמן את האלגוריתם של מודל השפה. OpenAI נדרשת לבקש ולקבל את הסכמתם של כל האנשים שהמידע עליהם נאסף, להוכיח שהוא נאסף למטרה לגיטימית ולאפשר לאנשים לתקן טעויות אודותיהם בתשובות של מודל השפה, או אף למחוק מידע שקשור אליהם. זאת, בהתאם לחוקי הפרטיות של האיחוד, GDPR. אם OpenAI לא תעשה זאת, הפעילות של ChatGPT עלולה להיחסם בכל האיחוד האירופי, והיא עלולה גם לספוג קנסות כבדים וצווים שיחייבו אותה למחוק מידע.
"ההפרות של OpenAI כל כך בוטות, שסביר שהמקרה הזה יגיע לבית המשפט לצדק של האיחוד", ציינה פרופסור ליליאן אדוארדס, מומחית למשפט, חדשנות וחברה מאוניברסיטת ניוקסל בשיחה עם ה־MIT Technology Review. "אבל יעברו כמה שנים עד שתתקבל תשובה לסוגיות שמעלה הרגולטור האיטלקי". לדבריה, לא סביר ש־OpenAI תוכל לטעון שהיא קיבלה את הסכמתם של אנשים לפני שאספה מידע, מה שמשאיר לה את טיעון ה"עניין הלגיטימי". "טיעון כזה ידרוש מהחברה לשכנע רגולטורים ש־ChatGPT כל כך חיוני, עד כי קיים צידוק לאסוף את המידע גם ללא הסכמה", היא הסבירה.
ב־OpenAI טוענים, כי מכיוון שנעשה שימוש רק במידע פומבי, לא קיימת בעיה של פגיעה בפרטיות. ואולם, טיעון כזה לא מחזיק כשמדובר ב־GDPR. "בארה"ב מקובל שכאשר מידע פומבי, הוא כבר איננו פרטי. אבל החוק האירופי לא עובד כך", אמרה אדוארדס. "GDPR נותן לאנשים זכויות, כמו קבלת הודעה על איסוף המידע שלהם ואפשרות להורות על הסרתו ממערכות גם אם היה פומבי קודם לכן".
מרגרט מיטשל, לשעבר ראש תחום אתיקת AI בגוגל וכיום מדענית אתיקה ראשית ב־Hugging Face, העריכה שבגלל האופן שבו פותח ChatGPT, יהיה זה כמעט בלתי אפשרי להסיר מידע משתמשים פרטני מהמודל. "OpenAI היתה יכולה לחסוך לעצמה כאב ראש ענקי לו היתה בונה מערכת ניהול דאטה חסונה מלכתחילה", היא הסבירה. "במקום זאת, מקובל בתעשייה לאסוף מידע ללא אבטחה ולבצע מיקור חוץ למשימות כמו הסרת מידע כפול או לא רלוונטי. בגלל שיטות אלו, והגודל העצום של הקבצים, לחברות יש הבנה מוגבלת מאוד של המידע ששימש לאימון המודלים". בעיה אחרת שהציף הרגולטור האיטלקי היא היעדר שקיפות בנוגע לשימוש שעושה OpenAI במידע שנאסף אחרי שלב האימונים של ChatGPT, כלומר האינטראקציות של מי שמשתמשים בו. השימושים הרחבים שנעשים במודל השיחה יכולים להביא לחשיפה של פרטים רגישים מאוד בצ'אטים אתו, למשל תוכניות נסיעה, מצב רפואי או עמדות בנושאים נפיצים. "יש סכנה ש־ChatGPT יפלוט את המידע הזה למשתמשים אחרים. לפי החוק האירופי, משתמשים צריכים להיות מסוגלים למחוק את הצ'אטים שלהם", אמרה אלכסיס לאוטייה, מומחית AI ברגולטור הפרטיות של צרפת, CNIL.
במקביל, מחוקקים בפרלמנט האירופי שמוטרדים ממהירות הפיתוח ומהגידול המעריכי ביכולות מודלי השיחה, מבקשים לקדם חקיקה שתעניק לרגולטורים סמכויות חדשות להסדרת ההתפתחות של הטכנולוגיות הללו. "האבולוציה המהירה של מערכות AI עוצמתיות מחייבת תשומת לב פוליטית משמעותית", כתבו 12 חברי פרלמנט במכתב פתוח לעמיתיהם. "אנחנו צריכים סט של כלים לפיתוח ופריסה של מערכות AI עוצמתיות, שניתן יהיה להתאימן בקלות למגוון מטרות".
על המכתב חתומים אדריכלי חוק הבינה המלאכותית של האיחוד (AI ActI), הקוראים עתה לעדכנו על מנת להתמודד עם השיבוש שמייצרים מודלי השיחה החדשים. הם מזכירים את מכתב המדענים שפורסם בחודש שעבר, שקרא להקפאת הפיתוח של מודלי שיחה לחצי שנה. "אנו חולקים חלק מהדאגות שהועלו במכתב, גם בשעה שאנו חולקים על חלק מההצהרות המפחידות", הם כתבו. לצד עדכון החקיקה, צעד שזה בדיוק הרגע הנכון לעשותו, כשהטכנולוגיה עדיין בחיתוליה, מבקשים המחוקקים לזמן ועידת פסגה בינלאומית במעמד נשיא ארה"ב ג'ו ביידן ונשיאת הנציבות האירופית אורסולה פון דר ליין, זאת במטרה "להסכים על סט מקדמי של עקרונות אסדרה לפיתוח, שליטה ופריסה של כלי AI חזקים מאוד".
בעיכוב קל, גם ארה"ב וסין מקדמות חוקים שיסדירו את ה־AI
אף שהאיחוד האירופי והמדינות החברות בה נמצאים, כרגיל, בחזית העשייה הרגולטורית השקולה והחכמה בכל הנוגע לטכנולוגיות חדשות, לא מדובר במעצמה העולמית היחידה שזיהתה את חשיבות אסדרת התחום. ממשל ביידן החל החודש בבדיקת הצורך ליצור בקרים כלשהם על פיתוח מודלי שיחה מתקדמים.
הצעד הראשון בדרך לרגולציה היה הזמנה פומבית של מחלקת הסחר לתגובות הציבור לסוגיות כמו, האם מודלי AI בעלי פוטנציאל מסוכן צריכים לקבל רישיון לפני שהם מופצים בצורה חופשית. "זה מדהים לראות מה הכלים הללו יכולים לעשות, גם בשלב מוקדם יחסית בהתפתחות שלהם", אמר ראש מנהל הטלקום והמידע הלאומי במחלקת הסחר, אלן דיווידסון. "ברור לנו שאנחנו צריכים ליצור יותר הגנות על מנת לוודא שהדברים נעשים בצורה אחראית".
זהו מקרה לא שכיח שבו הרגולטור בארה"ב מגיב מהר יחסית להתפתחות טכנולוגית, ואף שהעיסוק בתחום מפגר לעומת האיחוד האירופי, מדובר בפיגור קטן שניתן יהיה לצמצם במהרה. זאת, בתנאי שהמערכת הפוליטית המפולגת שם תצליח להתאחד סביב סוגיה זו.
גם הרגולטור בסין פרסם החודש הצעה לכללים חדשים, שבין השאר יחייבו חברות לעבור ביקורת ממשלתית לפני שהן מספקות שירותי AI מתקדמים, ויטילו עליהן אחריות לתוכן שהמודלים יוצרים. עם זאת, המטרה היא בעיקר לשמר את אחיזת החנק של הממשל במידע שמגיע לאזרחים, ובהתאם, הם כוללים גם איסור על פרסום תוכן שפוגע בכוחה של המדינה או מסית לאי־סדר חברתי.