סגור
באנר דסקטופ כלכליסט טק
ענן עליבאבא
המודל כבר משולב בצ'טבוט ה-AI של עליבאבא (צילום: Shutterstock)

שוק הבינה רותח: עליבאבא הסינית השיקה מודל AI שיתחרה ב-OpenAI ודיפסיק

"Qwen 2.5-Max מספק ביצועים טובים יותר, כמעט בכל הממדים, מאשר GPT-4o, DeepSeek-V3 ו-Llama-3.1-405B (של מטא)", נמסר בהודעה שפרסמה חטיבת הענן של עליבאבא. המודל כבר משולב בצ'טבוט ה-AI של עליבאבא

עליבאבא הסינית חשפה היום מודל בינה מלאכותית גנרטיבית (GenAI), שלטענתה מספק ביצועים טובים מאלו של מודלים מתחרים של OpenAI ודיפסיק (DeepSeek).
"Qwen 2.5-Max מספק ביצועים טובים יותר, כמעט בכל הממדים, מאשר GPT-4o, DeepSeek-V3 ו-Llama-3.1-405B (של מטא)", נמסר בהודעה שפרסמה חטיבת הענן של עליבאבא. המודל כבר משולב בצ'טבוט ה-AI של עליבאבא, Qwen Chat. לעת עתה, החברה לא התייחסה לעלות האימון של המודל.

רק מה שמעניין - הצטרפו לערוץ כלכליסט בטלגרם

השבוע, זעזעה דיפסיק את עולם ה-AI והשבבים אחרי ששחררה את R1, מודל בינה מלאכותית גנרטיבית (GenAI) מתקדם, שדומה ביכולותיו למודל o1 של OpenAI, אך אומן בעלות מזערית ועם השקעה של 6 מיליון דולר בלבד בכוח מחשוב. זאת, לעומת עלויות שמגיעות לעשרות מיליוני ואף מיליארדי דולרים במודלים אחרים. החשיפה של המודל ערערה את הפרדיגמה שהנחתה את תעשיית ה-AI בשלוש השנים האחרונות, והביאה להתרסקות במניות אנבידיה, שאיבדה ביום אחד שווי שוק של יותר מחצי טריליון דולר (מאז, רשמה המניה התאוששות מסוימת).
עם זאת, ייתכן שבאימון המודל תפסה דיפסיק טרמפ על המודלים היקרים של OpenAI. לדברי החברה האמריקנית, הם מצאו ראיות שלפיהן דיפסיק עשתה שימוש בשיטת אימון שמכונה "זיקוק" (distillation). בשיטה זו, מפתחי AI משפרים ביצועים של מודלים קטנים יותר באמצעות פלט ממודלים גדולים יותר ובעלי יכולות רבות יותר, וכך יכולים להגיע לתוצאות דומות במשימות ממוקדות ובעלות נמוכה יותר.
צאר הבינה המלאכותית של ממשל טראמפ, דייוויד סאקס, אמר אתמול שיש "ראיות משמעותיות", שלפיהן דיפסיק נעזרה במודלים של OpenAI לפיתוח R1. "יש טכניקה ב-AI שקוראים לה זיקוק... כשמודל אחד לומד ממודל אחר ושואב את הידע מהמודל ההורה", הוא אמר בראיון לפוקס ניוז. "יש ראיות משמעותיות שמה שדיפסיק עשתה זה לזקק את הידע של המודלים של OpenAI, ואני לא חושב שהם מאוד שמחים לגבי זה".