"לחוש את הרגשות של המשתמשים": OpenAI הציגה מודל בינה מלאכותית חדש
"לחוש את הרגשות של המשתמשים": OpenAI הציגה מודל בינה מלאכותית חדש
המודל החדש, GPT-4o, יהיה זמין לכלל המשתמשים, כולל אלה שאינם משלמים; מירה מוראטי, מנהלת הטכנולוגיה הראשית של OpenAI: "זו הפעם הראשונה שאנחנו עושים צעד ענק קדימה בכל הנוגע לקלות השימוש"
OpenAI הציגה הערב מודל בינה מלאכותית חדש בשם GPT-4o, וכן גרסה חדשה לדסקטופ של הצ'טבוט ChatGPT שתכלול ממשק משתמש משופר.
מירה מוראטי, מנהלת הטכנולוגיה הראשית של OpenAI, אמרה כי GPT-4o הוא גרסה משופרת של מודל GPT-4 - ויגיע לכל המשתמשים ב-ChatGPT, כולל אלה שאינם משלמים (ה-o מייצג את המילה הלטינית Omni, "כל").
לדבריה, מודל הבינה המלאכותית החדש "מהיר יותר" ובעל יכולות משופרות בטקסט, וידאו ושמע. בין השאר הוא מאפשר ל-ChatGPT לטפל במהירות ובאופן איכותי ב-50 שפות. מוראטי ציינה כי "זו הפעם הראשונה שאנחנו עושים צעד ענק קדימה בכל הנוגע לקלות השימוש".
ב-OpenAI אמרו כי הם מתכוונים בסופו של דבר לאפשר לכל המשתמשים לתקשר עם ChatGPT באמצעות וידאו-צ'אט.
כמו כן GPT-4o יהיה זמין למפתחים באמצעות ממשק ה-API של החברה, כך שהם יוכלו לבנות יישומים באמצעותו. לדברי מוראטי, המודל החדש יהיה מהיר פי שניים ממודל GPT-4 טורבו.
אנשי הצוות של OpenAI הדגימו את יכולות האודיו של המודל החדש, וביקשו ממנו סיוע בכל הנוגע להפגת מתחים לפני נאום פומבי. מארק חן, חוקר בחברה, הוסיף כי כי למודל החדש יש יכולת "לחוש את הרגשות" של המשתמש, וציין כי הוא יכול להתמודד עם משתמשים שקוטעים או מפריעים לו. הוא הדגים את היכולת של המודל החדש לספר סיפור לפני שינה, וביקש ממנו לשנות את הטון של קולו, כך שיהיה יותר דרמטי.
לפי הודעת החברה, יכולות הטקסט והתמונה של GPT-4o זמינות החל מהיום בצ'טבוט ChatGPT. משתמשי ChatGPT פלוס (בתשלום) ייהנו מיכולות משופרות. בשבועות הקרובים החברה תוציא גרסת אלפא למנויי הפלוס, שתכלול את תכונות הקול. לפי OpenAI, המודל החדש יכול להגיב לקול המשתמשים בתוך 232 מילישניות בלבד, ובממוצע של 320 מילישניות, בדומה לזמן התגובה האנושי בשיחה.