סגור
גג עמוד techtalk דסק

בלי סודות: שישה צעדים לשימוש זהיר ב-ChatGPT

לצד היתרונות הרבים, שימוש לא זהיר בצ׳אטבוטים מבוססי AI עלול לגרום לדליפה של מידע רגיש. כיצד ניתן למנוע זאת? 

העולם העסקי מאמץ את הבינה המלאכותית בקצב מהיר. השימוש במודלי שפה גדולים (LLMs) כמו ChatGPT ופלטפורמות נוספות המבוססות על בינה מלאכותית יוצרת (GenAI) מאפשרים שיפור וייעול של תהליכים עסקיים שונים, ומאפשרים להפיק מידע רב ותובנות מורכבות בזמן קצר. מחקרים מראים כי יותר מ-50% מהארגונים ברחבי העולם כבר הטמיעו מערכות מבוססות בינה מלאכותית בתהליכים העסקיים שלהם. ארגונים אלה משתמשים בצ׳אטבוטים כדי להעניק שירות טוב יותר, להפיק תובנות מיידיות, ולייעל את חווית המשתמש.
עם זאת, בצד ההזדמנויות והיתרונות הגדולים, קיימים גם סיכונים משמעותיים בשימוש לא זהיר ולא מפוקח בטכנולוגיות אלה. בוטים מבוססי מודלי שפה גדולים עשויים להפיק מידע לא מדויק ואף לגרום לחשיפת מידע רגיש, דבר שעלול לגרור נזק הן לחברה והן למשתמשים. חוסר תשומת לב בשימוש בצ׳אטבוטים עלול להוביל לחשיפה של פרטים אישיים וסודיים, דבר העלול לפגוע בארגון מבחינת מוניטין ואמון, ובמקרים מסוימים אף להעמיד אותו בפני סנקציות.
בתחילת השנה, למשל, חברת התעופה הקנדית אייר קנדה נתבעה לאחר שאחד מהצ׳אטבוטים שלה מסר ללקוח מידע שגוי, שגרם לו לרכוש כרטיס במחיר מלא שלא היה זקוק לו. בהמשך, כאשר הלקוח ביקש פיצוי, טענה החברה שהבוט ״לא אחראי למעשיו״, כפי שדווח בגרדיאן – תשובה שגררה ביקורת ציבורית קשה. דוגמה זו ממחישה כיצד צ׳אטבוטים עלולים לגרום להטעיה אם אינם מתוכנתים ומנוטרים כראוי, וכיצד השימוש בהם מחייב מדיניות אחראית.
דמיינו גם מצב שבו משתמש זדוני דורש את היסטוריית הרכישות של משתמש אחר, או את הכתובת שאליה נשלחה רכישה. במקרים כאלה, הבוט עלול לשתף מידע שלא אמור להיחשף, מה שעלול להוביל לדליפה חמורה של מידע אישי, ולפגוע במוניטין של החברה ובאמון הלקוחות.
מעבר לסיכון של דליפת מידע, צ׳אטבוטים עלולים גם להיות מנוצלים לבצע פעולות בלתי מכוונות. בשנה שעברה, לדוגמה, סוכנות רכב מקומית של שברולט בארצות הברית הציגה צ׳אטבוט שמדמה מוכר, אולם אחד המשתמשים הצליח להתל בבוט ולקבל הצעת מחיר לרכישת רכב בדולר אחד בלבד. מקרים אלה לא רק שמעלים שאלות לגבי רמת הדיוק של הבוטים, אלא גם לגבי יכולת המערכות להתמודד עם מניפולציות יזומות. בנוסף, ניתן לבצע התקפות Data Poisoning, שבהן התוקף מכניס מידע שגוי למערכת וכך משבש את תגובותיה ומפחית את אמינותה.
למניעת דליפות ואבטחת הצ׳אטבוטים, חברות יכולות להיעזר בכמה אמצעים חיוניים:
1. גילוי ותיעוד מערכות הבינה המלאכותית (LLM Discovery and Inventory) – מדובר במערכות שמגלות את כל אפליקציות הבינה המלאכותית בארגון, המידע שהן צורכות, כמו גם ביצוע קלסיפיקציה של רגישות ואיכות המידע. לא ניתן להגן על מה שלא מכירים ולכן שלב זה חיוני לזיהוי וטיפול בסיכונים.
1 צפייה בגלריה
נמרוד וקס BigID
נמרוד וקס BigID
נמרוד וקס
(צילום: רועי שור)
2. בקרה למודלי שפה גדולים (LLM Gateway) – מדובר במערכות שמפקחות על כל התקשורת בין המשתמש לצ׳אטבוט, ובודקות שהבוט לא נחשף למידע רגיש או מציג אותו למשתמשים בצורה שעלולה לגרום לנזק. כך ניתן לוודא שהמשתמש לא מזין מידע רגיש ובמקביל שהמודל לא מספק תשובות הכוללות מידע רגיש.
3. ניקוי דאטה (Data Cleansing) – תהליך זה כולל ניתוח וניקוי הדאטה שהוזן לבוטים על מנת לוודא כי המידע הנגיש למודל אינו כולל פרטים רגישים כמו פרטי כרטיסי אשראי או כתובות אישיות. כך ניתן למנוע מהבוט גישה למידע מסוכן שיכול לחשוף את הארגון לתביעות וסנקציות.
4. ניהול גישה (Access Management) – באמצעות הרשאות גישה ניתן למנוע ממשתמשים שאינם מוסמכים לראות או לקבל מידע רגיש. בכך הארגון מבצע מיפוי קפדני של הרשאות הגישה לדאטה ושולט בצורה טובה יותר במידע הזמין לכל משתמש לפי הגדרת התפקיד שלו.
5. האצלת האחריות לתיקון סיכונים (Delegated Remediation) – על ידי האצלת האחריות למחלקות שונות בארגון, ניתן להבטיח ניהול יעיל יותר של הסיכונים תוך הפחתת הסיכון לפגיעה בהתנהלות העסקית. במודל זה, צוות האבטחה ימשיך לפקח ולהנחות, אך המחלקות העסקיות בארגון יוכלו לסייע במענה ישיר לאיומים בהתאם לצרכים הספציפיים שלהן.
6. עמידה ברגולציה (Regulatory Compliance) - מדינות רבות, בראשן האיחוד האירופי, חוקקו חוקים הקובעים סטנדרטים לבטיחות ולאבטחת השימוש במנגנוני בינה מלאכותית. אי עמידה בחוקים מהווה עבירה פלילית ויכולה להביא לכנסות כבדים, ומעבר לכך, לנזק תדמיתי קשה. כלי GRC שונים יודעים לספק את הדוחות הדרושים בכדי להוכיח ציות לחוק.
לסיכום, לצד היתרונות הרבים שהבינה המלאכותית מציעה, חשוב לזכור שהשימוש בה דורש הבנה וזהירות. השימוש בצ׳אטבוטים מאפשר לארגונים לייעל תהליכים ולספק חווית משתמש מתקדמת, אך עליו להתבצע בזהירות רבה. ארגונים צריכים לנקוט באמצעי הגנה ולוודא כי הם עוקבים אחרי השימוש במידע הנכנס והיוצא מהבוטים בצורה מבוקרת. כמו כן, המשתמשים עצמם נדרשים לחשוב פעמיים לפני שהם מזינים מידע רגיש למערכות אלה. באמצעות הטמעה של כלים לניטור וניהול גישה, ארגונים יוכלו להפיק את המירב מהשימוש בבינה מלאכותית ולצמצם את הסיכון לדליפות מידע.
נמרוד וקס הוא מייסד שותף ו-CPO של חברת BigID, המתמחה בהגנת פרטיות, עמידה ברגולציות וניהול מידע