סגור
גג עמוד techtalk דסק

היום שבו יזלוג מידע עסקי רגיש לצ'אט GPT

יותר ויותר עובדים משתמשים בצ'אט GPT ודומיו במקום העבודה למשימותיהם השוטפות ועלולים לשתף עימו גם מידע עסקי מסווג; כיצד חברות יכולות להפחית את הסיכונים שבשיתוף מידע עם פלטפורמות חיצוניות?

בעבר, כלי בינה מלאכותית (AI) מורכבים היו נחלתם הבלעדית של מומחי טכנולוגיה וצוותים טכניים בתוך ארגונים. אלא שכיום, AI נגישה לכולנו דרך אתרים, אפליקציות וגם משולבת באפליקציות יומיומיות שבהן כולנו משתמשים. הנגישות הגוברת של AI עבור כלל האוכלוסייה מעצימה עובדים ועובדות במשק לבצע אוטומציה של משימות ולהשיג יעילות ותובנות באמצעות AI וביתר שאת בינה מלאכותית יוצרת, כמו צ'אט GPT, גוגל Gemini ועוד, שעושה מהפכה בימים אלו. עם זאת, נגישות זו טומנת בחובה גם סיכונים פוטנציאליים.
לפי מחקר של סלאק, מיוני 2024, השימוש ב-AI במקום העבודה עלה ב-23% מאז ינואר וב-60% מאז ספטמבר 2023. עובדים מאמצים יותר את הבינה המלאכותית ומתלהבים יותר ויותר מהשימוש בה בעבודתם היומיומית, כאשר לפי הסקר כמחצית (47%) מהם מביעים התלהבות מהטיפול של הבינה המלאכותית במשימות בעבודתם.
ככל שמספרם של העובדים המשתמשים בצ'אט GPT ודומיו גדל, יש להציף גם את הסיכונים הטמונים בכך: בראש ובראשונה, אבטחת סייבר ופרטיות. שימוש לא מורשה בכלי בינה מלאכותית עלול להוביל לפרצות אבטחה לא מכוונות או לחשיפה של מידע רגיש אל גורמים שמחוץ לארגון. עובדים עלולים להעלות מבלי לדעת מידע ארגוני מסווג לפלטפורמות AI מבוססות ענן ללא פרוטוקולי אבטחה מתאימים.
1 צפייה בגלריה
קארין לגזיאל דירקטורית לשירותי אבטחת סייבר ב סיגניה Sygnia
קארין לגזיאל דירקטורית לשירותי אבטחת סייבר ב סיגניה Sygnia
קארין לגזיאל
(צילום: Sygnia)
בנוסף, אלגוריתמים של AI עלולים לשמר הטיות במאגרי הנתונים והמידע עליהם הם מאומנים. זה יכול להוביל לתוצאות מפלות בתחומים כמו גיוס עובדים, הערכת ביצועים ושירות לקוחות. נושא נוסף הוא Shadow IT וממשל. כלומר, השימוש בכלי AI לא מורשים, המכונים לעתים קרובות "Shadow AI", יוצר סיכונים הקשורים לתאימות, פרצות אבטחה ונעילה פוטנציאלית של ספקים.
עוד סיכון נוגע לפרשנות שגויה של מידע המגיע מהבינה המלאכותית, כאשר עובדים עלולים לפרש תוצאות לא נכון או להעריך יתר על המידה את היכולות של כלי ה-AI, מה שיוביל לקבלת החלטות לקויה.
איך מקום העבודה יכול להתמודד עם הסיכון?
כדי להתמודד עם הסיכון שבזליגת מידע עסקי רגיש לפלטפורמות AI, יש להחיל בארגון מדיניות מוגדרת היטב. מדיניות שכזו צריכה לתאר מה הם שימושים מקובלים בכלי AI, לנסח פרוטוקולי אבטחת מידע וכן הגדרה של אחריות המשתמש.
לצד זה, חשוב לבצע את הצעדים הבאים:
• הדרכה וחינוך: למדו את העובדים על שיטות עבודה אחראיות עם בינה מלאכותית, כולל מודעות להטיה, לעקרונות של פרטיות מידע וכן למגבלות של כלי בינה מלאכותית.
• חדשנות "מאוזנת": עודדו שימוש בבינה מלאכותית באמצעות גישה מבוססת סיכונים עם קווים מנחים ברורים, מסגרות סיכון ומסגרות משפטיות, וסביבה מאובטחת. כל אלה מאפשרים לעובדים לעשות שימוש ב-AI במקום העבודה באופן שמבטיח פיקוח מספק.
• סטנדרטיזציה וריכוזיות: הגדרה של סטנדרט של קבוצת כלי AI מאושרים יכולה למזער סיכוני אבטחה ובעיות תאימות. ניהול ריכוזי של הנושא בתוך הארגון יכול גם להבטיח ניהול נתונים ועמידה בתקנות.
• ניטור Shadow AI: ערכו ביקורות וסריקות כדי לזהות כלי בינה מלאכותית לא מורשים הנמצאים בשימוש בארגון.
• תקשורת ושיתוף פעולה: טפחו תקשורת פתוחה בין צוות ה-IT, ההנהלה והעובדים בנוגע לשימוש בכלי AI. עודדו עובדים לדווח על דאגות שמתעוררות או סיכונים פוטנציאליים הקשורים לכלי AI לא מורשים.
לסיכום, עד שיוחלו תקנות ונהלים בנושא, אם בכלל, יש להתמקד תחילה בחינוך והדרכת העובדים להתנהלות נכונה בסביבת העבודה ולעודד שימוש אחראי בבינה מלאכותית יוצרת (GenAI). חברות שיתעדפו חינוך ושקיפות תוך-ארגוניים, ייצרו סביבת עבודה בריאה, ויגרמו לעובדים שלהם להשתמש ב-AI ביעילות, תוך הפחתת סיכונים. בנוסף, על חברות המאמצות AI להקים מסגרות ממשל (governance frameworks) הכוללות פיתוח מדיניות ומסגרות ברורות של נהלי AI, ועדת AI, תפקידי AI, יישום האסטרטגיות שהוזכרו לעיל וטיפוח תקשורת פתוחה עם העובדים.
הכותבת היא דירקטור לשירותי אבטחת סייבר בחברת הסייבר הישראלית סיגניה (Sygnia)