"ביצועים ברמת בן אנוש": OpenAI השיקה את GPT-4
"ביצועים ברמת בן אנוש": OpenAI השיקה את GPT-4
המודל החדש של מנוע השיח ChatGPT מציג, לדברי החברה, יכולות משופרות בהתמודדות עם שאלות ספציפיות במיוחד ומסוגל להפוך תמונות וסרטונים למידע טקסטואלי שמתאר אותם. "זו המערכת המתקדמת ביותר עד כה"
חברת OpenAI השיקה את GPT-4 - הדגם החדש של צ'טבוט הבינה המלאכותית, שלפי החברה מפגין "ביצועים ברמת בן אנוש" במספר מדדים אקדמים ומקצועיים כמו בחינות הלשכה בארה"ב ומבחן ה-SAT, כך לפי דיווח בפייננשל טיימס. הדגם החדש יכול לקבל מידע בצורת טקסט ותמונות, והוא מגיב לשאלות/פניות באמצעות טקסט.
מהחברה נמסר כי התוכנה החדשה הוטמעה במגוון אפליקציות, ביניהן אפליקציית לימוד השפות דואולינגו שמשתמשת בה כדי לפתח בוטים ללימוד שפות, חברת החינוך חאן אקדמי שפיתחה מורה פרטי מקוון וחטיבת ניהול העושר של מורגן סטנלי, שבוחנת צ'טבוט פנימי המבוסס על GPT-4 כדי למצוא ולזקק נתונים עבור העובדים.
היכולת של הדגם לקבל תמונות וטקסטים באה לידי ביטוי בייצור תיאורים מפורטים ולענות לשאלות בהתבסס על הרכיבים של התמונה. החברה הודיעה שהיא משתפת פעולה עם הסטארט-אפ הדני Be My Eyes, שמחבר בין אנשים עם לקויות ראייה ומתנדבים, לשם בניית מתנדב וירטואלי המבוסס על GPT-4 שיוכל לסייע לעיוורים ולבעלי לקות ראייה.
לפי OpenAI, זו "המערכת המתקדמת ביותר עד כה" והיא אמינה יותר ומסוגלת להתמודד עם שאלות ספציפיות הרבה יותר טוב מהדגם הקודם. כך למשל, הניקוד של GPT-4 בבחינות הלשכה האמריקאיות היה באחוזון ה-90, זאת לעומת ChatGPT שהניקוד שלו היה בעשירון ה-10.
ואולם, בחברה הודו שיש כמה בעיות גם עם הדגם הזה - בראשן מהימנות נמוכה, חלון קונטקסט מוגבל ואי למידה מניסיון. הדגם עבר מבחנים שונים שנועדו לאמוד את הנזקים האופציונאליים של הטכנולוגיה, לרבות הפצה של דעות קודמות ושל מידע שגוי, פגיעה בפרטיות ואבטחת סייבר. לפי ההודעה, GPT-4 "יכול לייצר תכנים עם פוטנציאל רעיל, כמו עצות לתכנון התקפות או שיח שנאה". בנוסף, הודו שם שהוא גם יכול לייצר 'קוד שקל לפרוץ'".