סגור
כנס AI 2024 - ישי רם
(צילום: גו לייב שידורים)

כנס AI
"עולמות ה-GEN AI יכולים ליצור פגיעה בארגון"

כך אמר ישי רם, משנה למנכ"ל בחברת SELA בכנס AI של כלכליסט. לדבריו, "ארגונים אשר רוצים להכניס מערכות מבוססות GEN AI, חשוב לעשות את זה עם כלים תאגידיים"

"יש סכנה רבה בשימוש בטכנולוגיות הג'נרטיב AI בארגונים", כך אמר ישי רם, משנה למנכ"ל וסמנכ"ל ענן בחברת SELA. "לכולנו יש ג'מיני או כלים אחרים דומים שהעובדים מדברים איתם ורוב החברות האלו מזהירות את העובדים שלא להיחשף, כי זה עלול ליצור בעיות משמעותיות".
רם הסביר על Shadow AI, "מדובר בשימוש בכלים גנריים ולא של הארגון. העובדים מדברים עם כלי ה־AI בחופשיות ואז נחשף איתו הרבה מידע. זה מייצר בעיה קשה ברמה הארגונית כי העובדים משתפים מידע של לקוחות, אנשים, קוד ואסטרטגיה, וזה עשוי לפגוע באירגונים ולחשוף את המידע הפרטי שלהם. כל מה שאנחנו כותבים בפקודה לצ'ט או כלי ה־AI - אין הגנה עליו. גם על התוצאות אין. כלומר האאוטפוט הוא מוגבל".
הוא הוסיף כי בסופו של דבר הארגון שהפעיל את הכלים נושא באחריות אם מידע של לקוחות נחשף. "הכי גרוע הוא שהתוצאה היא באחריותנו. אנחנו עלולים להשתמש בתוצר שנוצר מה־AI ואם הוא לא תקין, האחריות בארגון היא עלינו.
רם גם פירט על הבעיות השונות שנוצרות בארגונים: "יש בעיות של חשיפת מידע של לקוחות, גישה לא מורשית של אנשים, כל מיני פגיעות, סומכים על מידע שאינו בהכרח מהימן".
רם הדגיש את החשיבות בשימוש בכלי בינה מלאכותית תאגידיים עם יכולות הצפנת מידע: "ארגונים אשר רוצים להכניס מערכות מבוססות ג'נרטיב AI - חשוב שיעשו את זה עם כלים תאגידיים. אנחנו מייצרים הצפנה של המידע, בדיקת גישה ועוסקים בכל הנושא של בדיקת המידע".
לדברי רם, "ורטקס מייצר לנו פלטפורמה של טקסט, אודיו ווידאו. הוא מייצר לנו AI ג'נרטיבי באמצעות מודל ועליו לעשות בדיקה מדויקת על הדאטה שלי הארגוני, ולא הכללי. מערכת השירות של הארגון צריכה לעשות התאמה של מערכת ה־AI הג'נרטיבית. זה היתרון הגדול של הכלי שלנו, שאפשר לאמן אותו על הכלי שלי בארגון".