סגור
גג עמוד techtalk דסק

צ'יט GPT - חטא הרמאות המלאכותית

הבינה המלאכותית הופכת להיות חלק בלתי נפרד מהחיים שלנו ובכל יום נולדים כלי AI חדשניים שעוזרים לייעל- בניית מצגות, כתיבת מטלות, בוטים לשירות לקוחות, ניתוח נתונים והמלצות בעולמות הכלכלה, הרפואה והמשפט. אבל הסתמכות עיוורת ושימוש לא מושכל בכלים הללו יכול להוביל למדרון חלק ומסוכן.
בשבועיים האחרונים התגלו בישראל שלושה מקרים משפטיים חמורים בהם עורכי דין הציגו פסקי דין שלא נבראו. בשני המקרים, הסיקו השופטים כי המידע התקבל מכלי AI אשר "המציאו" פסקי דין שלא היו מעולם. מקרים אלו מעלים חשש לגבי שימוש לא מבוקר בבינה מלאכותית על מערכת המשפט ועל השלכות הסתמכויות ללא גיבוי הנתונים שמציגים כלים אלו. שופט בית המשפט העליון, נועם סולברג, אשר דחה את העתירה בעקבות זאת, הוסיף אמירה חשובה כשהתייחס לשימוש ב AI:

רק מה שמעניין - הצטרפו לערוץ כלכליסט בטלגרם

"גם אם עד כה נהג בית משפט זה סבלנות ומתינות בנושא, נוכח העובדה שמדובר בתופעה חדשה - לא לעולם חוסן. מעתה ואילך, יוחזקו העוסקים במלאכה כ'מוּתְרים ועומדים'; התגובה השיפוטית - תשתנה בהתאם".
למרות שהמקרים משתייכים למערכת המשפטית, העולם כבר ראה איך שימוש לא מבוקר בטכנולוגיה יכול להוביל להפסדים של מיליארדים ולערער את הכלכלה העולמית:
משבר הסאב-פריים בשנת 2008 קרה לאחר שמודלים ממוחשבים נתנו הערכות שגויות לגבי בטיחות הלוואות, מה שהוביל לקריסת שוק המשכנתאות בארה"ב ולאחר מכן למשבר עולמי שהוערך במעל ל-10 טריליון דולר.
ב2010, באירוע שונה שכונה, The Flash Crash מדד הדאו ג'ונס צנח ביותר מ-1,000 נקודות בתוך 36 דקות בלבד כתוצאה של מסחר אלגוריתמי בלתי מבוקר. למרות שרוב ההפסדים התאזנו תוך דקות עד שעות, ההפסדים הממשיים מוערכים במאות מיליוני דולרים. גם פרשת קיימברידג' אנליטיקס ב2018 חשפה שימוש בנתוני משתמשים לצורכי מניפולציה פוליטית והובילה לירידה של מעל 13% משווי מניית חברת פייסבוק תוך מספר ימים.

אוי, בטעות

אחד מכלי ה AI המוכרים הוא ChatGPT של חברת OpenAI שמציגה מגמת צמיחה מרשימה בנתונים הרשמיים:
בנובמבר 2023 דווח על 100 מיליון משתמשים פעילים שבועיים, מול בפברואר 2025 עם 400 מיליון משתמשים פעילים שבועיים- קפיצה של 300% בשנה וחצי. בנוסף, OpenAI פרסמה שהגיעה ליותר מ-2 מיליון משתמשים עסקיים בפברואר האחרון- זינוק של 100% בתקופה של חצי שנה.
אם ניקח את ChatGPT כדוגמה לכלי בינה הזמינים לכלל הציבור, הקלות והנגישות לשימוש בעובדות לא קיימות, הסתמכות על מקורות לא קיימים והמצאות במענה שלו על שאלות, מסוכנת.
1 צפייה בגלריה
אלכס מילמן
אלכס מילמן
אלכס מילמן
(צילום: Shlomi Mizrahi)
אחד מהסיכונים העיקריים נמצא באופן הצגת התשובה- למראית עין וקריאה ברפרוף, התשובות שמספק הכלי נראות הגיוניות, קוהרנטיות ובעלות קשר לוגי רציף, ולכן קשה לזהות טעויות בבדיקה ראשונית. בנוסף, עם הנטייה להסתמך על מקורות מבלי בדיקה מדוקדקת, ניתן בקלות לצטט עובדות מפוברקות ולהסתמך על 'פייק-ניוז' שנוצרו על-ידי AI - בגרסה החינמית אך גם בגרסה המשולמת.
זאת ועוד, לאחר מציאת טעות ועימות הכלי עמה, התשובה החדשה שתסופק תיערך ותסוגנן בצורה שונה, אך עם סבירות גבוהה שתמשיך להסתמך על מקורות מפוברקים, בין היתר בשל 'מנגנון ריצוי לקוח' הטבוע בו.

על טעויות משלמים

מדבריו של השופט סולברג ניתן להבין שאנחנו בפתחה של תקופה המקבילה להתפתחותם של כלי ה-AI: תקופת 'הרמאות המלאכותית'.
מטלות במוסדות הלימודים והאקדמיה מוגשות בקלות בהעתקה והדבקה של תשובות AI לא מבוססות, עובדים במגוון תחומים משתמשים בכלי הבינה שיפתרו את עבודותיהם, עורכי דין מסתמכים על כלים שיכתבו במקומם כתבי הגנה ועתירות ועוד. הייעול בזמנים ובהשקעה נראה טוב על-פני השטח, אך בפועל הפעולות האלו מייצרות עבודת בדיקה מעמיקה ומתישה, חוסר דיוק מחקרי, מצבור מטלות שיש לבצע מחדש (במקרה הטוב) ודירוג נמוך על טיב ואיכות המבצע והעבודה שבוצעה. תחזית קודרת יותר מנבאת השפעות חברתיות, כלכליות ורפואיות שיגיעו בעקבות שימוש לא אחראי בבינה המלאכותית.
וגם העונש בפתח...ביטולי הסכמים וחוזים בין חברות בעקבות אי דיוקים ואיכות עבודה ירודה, פסילת מטלות ומבחנים אקדמיים ואכיפה. מלבד זאת, בעקבות הסתמכות על 'דמיונות' או 'המצאות' של כלי הבינה המלאכותית, רגולציה, חקיקה מחמירה ואף קנסות עומדים בפתח וצפויים להגיע.
אנו צפויים לראות גופי פיקוח ממשלתיים שיאכפו סטנדרטים של דיוק ושקיפות מידע, הגברת האחריות המשפטית בתחומים רגישים, הגבלות, ביטול עתירות בעולם המשפטי ואף חיוב חברות מתחומי הרפואה, הפיננסים והביטחון להשתמש במנגנוני "התחייבות להוכחה".

שימוש בטכנולוגיה הינו באחריות המשתמש בלבד

אי אפשר לדמיין את ענף הבנייה בלי פטיש אבל גם פטיש צריך לדעת להחזיק נכון.
רצוי ואף ראוי שכלי הבינה המלאכותית ישמשו אותנו לעזר והם יוצרים פתח להתקדמות האנושית, אך האחריות על השימוש היא שלנו.
עם הזמן, כמות הטעויות שכלי AI מייצרים תצטמצם, אבל עד אז, הצלבת מידע עם מקורות אמינים, שימוש ב AI כתומך החלטות (ולא כמקור בלעדי), בדיקה כפולה של מידע קריטי וכן עדכון והתאמת כלים אישית, חייבים להיעשות על ידי כל משתמש שניגש לעבוד עם בינה מלאכותית.
אלכס מילמן הוא דוקטורנט בפקולטה לחינוך באוניברסיטת בר אילן. יזם ופעיל חברתי בתחום החינוך והסביבה