סגור

ביום שבו הבינה המלאכותית תחליף את השופטים ואת עורכי הדין

לצד חיסכון בזמן ושיפור ביצועים, שימוש ב-AI במערכת המשפט מעלה סוגיות מוסריות רבות, בהן בעיות אמינות והפרת פרטיות הלקוחות. אך השאלה המרכזית היא: האם נרצה שהמצפון ותחושת הצדק שלנו יוחלפו על ידי בינה מלאכותית? 

לשכות עורכי הדין בארה״ב, בריטניה וישראל פרסמו גילויי דעת בעניין שימוש עורכי דין בתוכניות בינה מלאכותית בעבודתם לייצור תוכן משפטי. גילויי הדעת חתרו לחדד את האתגרים והסכנות מתחום האתיקה של עורכי דין בעת השימוש בבינה מלאכותית בעבודתם המשפטית. אז מה באמת מטריד את הקהילה המשפטית בשימוש בבינה מלאכותית?
למעשה, תוכנות בינה מלאכותית כמו ChatGPT ואחרות המייצרות תוכן משפטי מבוססות על קליטת, עיבוד ועדכון מידע מכל סוג, בצורה בלתי פוסקת, ועל בסיס מאגרי הידע הרחבים שלהן הן מייצרות את התוכן שהמשתמש ביקש לדעת או לקבל. בעריכת דין למשל, שירותי הבינה המלאכותית יכולים לחבוק את הכל, מהדברים הפשוטים ביותר ועד למורכבים. החל מכתיבת מכתב, עריכת חוזים, סיכום פסיקה ומחקר משפטי ועד אפילו כתיבת תובענה לבית המשפט! עבודה שהייתה נעשית על ידי צוות משפטי ובזמן ארוך יחסית יכולה להיעשות על ידי הבינה המלאכותית במיידיות ובצורה זמינה. בכך חוסכת הבינה מלאכותית בזמן ובמשאבים בצורה מרשימה למדי, משפרת את ביצוע ויכולות עורכי הדין והופכת את השירות המשפטי לזול וזמין יותר.
אם כך, מה רע בשימוש בבינה מלאכותית בעריכת דין? הרבה דברים! ראש לכל, התוכן המשפטי שהבינה המלאכותית מספקת לא נוצר על ידי אדם, וודאי לא על ידי משפטן או מומחה במשפט. אי לכך, קיים חשש ממשי אודות אמינות, אמיתות ודייקנות המידע, והוא אף יכול להיות מטעה, מעוות ולעיתים מיושן ולא עדכני. תוכנות הבינה המלאכותית עצמן מקפידות לציין בתנאי השימוש שלהן כי אין להן אחריות מקצועית על המידע שהן מספקות או הנזק שייגרם מהשימוש בו. מכאן, עורך הדין המשתמש בבינה מלאכותית עלול להפר את חובתו המקצועית כלפי הלקוח ובעלי העניין, וככל שמדובר במידע המסופק לבית המשפט אז הוא יכול גם להפר בכך את חובתו האתית לסייע לבית המשפט לעשות משפט צדק.
1 צפייה בגלריה
עורך דין קייס נאסר
עורך דין קייס נאסר
ד"ר קייס נאסר
(צילום: סטודיו תומאס)
עניין מטריד נוסף הוא פרטיות הלקוח. המידע המוחלף בין עורך הדין ללקוח אמור להיות חסוי ביניהם ואסור לעורך הדין להפר חיסיון זה ללא רשות הלקוח שהוא בעל החיסיון. לעומת זאת, תוכנת הבינה המלאכותית שומרת את המידע, השאלה או המסמך שעורך הדין מזין לה כדי לקבל את השירות. היא אפילו עושה שימוש במידע כדי לשפר את הביצועים שלה. בצורה זו המידע של הלקוח עלול להיות חלק אינטגראלי ממודל הבינה המלאכותית עצמו! במצב כזה עשוי עורך הדין לחתור תחת חובתו המשפטית והאתית לשמור על מידע הלקוח כחסוי. הנחיית לשכות עורכי הדין היא שעורך הדין יציין בפני הלקוח שלו או בפני בית המשפט שהתוכן שהוא מציג בפניהם הוא מהבינה המלאכותית או בסיועה. איני חושב שיש בכך די או שיש בכך כדי להפיג את החששות האתיים המתוארים בשימוש בבינה מלאכותית.
אני סבור כי קיים קושי מוסרי וערכי נוסף בשימוש בבינה מלאכותית בעריכת דין, וכוונתי בעיקר לתוכנות המייצרות תוכן משפטי - ולא אלה המסייעות בניהול משרדי או לוגיסטי. בינה מלאכותית מטשטשת את הגבולות והאבחנה בין עורכי דין מצוינים לעורכי דין ברמה מקצועית נמוכה, בין מומחה למשפט לבור ועם ארץ. בינה מלאכותית גורמת לכך שעו"ד ומשפטן ברמה מקצועת נמוכה, עצלן ולא לומד יעניק כמעט אותו שירות משפטי שיעניק עו״ד שכל חייו למד, עמל, התמחה והשקיע עד שהגיע לרמה המקצועית אליה הגיע.
אך השאלה המוסרית והערכית אינה מתמצת רק בכך. השאלה הרחבה יותר היא האם אנחנו אכן רוצים שמכונה תחליף עורך דין במתן השירות המשפטי וביצירת המשפט ובפיתוח המשפט? האם אנחנו לא בפני מדרון חלקלק, שהרי אם אנו מאפשרים לבינה מלאכותית להחליף עורכי דין בייצור המשפט, מדוע שהבינה המלאכותית לא תחליף גם את השופטים והתוכנה היא זו שתתן החלטות ופסיקות?! האם ״המצפון״, ״תחושת הצדק״ ו-״השכל הישר״, של עורכי דין ושל שופטים, יכולים להיות מוחלפים בבינה מלאכותית, או שהבינה המלאכותית כן בעלת מצפון, תחושת צדק ושכל ישר?! מסופקני.
בכל אופן, שאלות אלה ראויות בהחלט לדיון בקרב הקהילה המשפטית והחברה הדמוקרטית בכלל, וכבר עתה, מפני שהבינה המלאכותית במשפט הולכת ומתקדמת בצעדים גדולים כשהיא מסתירה תחת קסמיה מוקשים ערכיים. לא בכדי, לפני כמה שבועות פרסם צוות הייעוץ המיוחד של האו"ם בעניין הבינה המלאכותית דו"ח הקורא לשליטה ורגולציה גלובלית לבינה מלאכותית למען האנושות.
עו"ד ד"ר קייס נאסר הוא ד"ר במשפטים מאוניברסיטת תל-אביב, ועו"ד שותף במשרד פירון