מאמר דעה

האם שופט מסוג ChatGPT "אמפתי" עדיף על שופט אנושי עצבני?

| מאת:

יותר ויותר מדינות משלבות כלים מבוססי בינה מלאכותית במלאכת השפיטה. אפשר היה להניח ששימועים מול מכונות ייחשבו חסרי משמעות או חלולים, אולם ככל שהן משתכללות ומסוגלות לזהות שפה, תנועות גוף, הבעות פנים ואף רגשות, ולהגיב בהתאם – הן יקנו תחושה שביכולתן גם להקנות צדק.

Photo by mariakray/Shutterstock

באוגוסט 1776 כתב תומס ג'פרסון, מאבות האומה האמריקאית, מכתב מפורסם לידידו אדמונד פנדלטון. המכתב עסק בשאלה אם נכון לאפשר לבתי משפט לפסוק עונש מוות. במשפט אחד במכתב עיצב ג'פרסון את התורה כולה: "Let mercy be the character of the law-giver, but let the judge be a mere machine". (בתרגום חופשי: שתהא מערכת החוק רוויה חמלה, אך שיהא השופט המיישם אותה – מכונה בלבד). ממש כך, שופטים כמכונות. אחרת, כתב ג'פרסון, כל צורתה של מערכת אכיפת החוק תוכפף ל"דחפים אקסצנטריים של גברים גחמניים".

כ־250 שנה מאוחר יותר, חזונו של ג'פרסון קורם עור וגידים, בעת שמדינות שונות משלבות כלים מבוססי בינה מלאכותית במלאכת השפיטה. כרגיל בהקשרי בינה מלאכותית, סין נמצאת בחזית עם פרויקט "בית המשפט החכם" הכולל, בין השאר, מערכת זיהוי אוטומטית לתיקים דומים כדי לאתר תקדימים, ומערכת עיבוד והצגה של ראיות המסוגלת לזהות פרכות ואי התאמות. מעל כל אלה נמצאת מערכת הכרעה מבוססת אלגוריתם, המחייבת את השופט המשתמש בה לנמק בכתב כשהוא דוחה את החלטתה ומעדיף להחליט בעצמו. בשנים האחרונות הכריזה גם אסטוניה על כוונתה להשתמש בבינה מלאכותית כשופט הדן בתביעות קטנות שסכומן לא עולה על 7,000 יורו, בכפוף לזכות ערעור על ההחלטה הממוכנת לשופט אנושי. גם בבריטניה הועלו כמה הצעות להפחתת העומס השיפוטי באמצעות מערכות בינה מלאכותית.

מערכת הצדק האמריקאית משתמשת כבר כמה שנים במערכות אוטומטיות להערכת מסוכנות, בראשן מערכת COMPAS (מערכת ניהול פרופילים לקציני מבחן), המבצעת הערכת מסוכנות של הנאשם ובוחנת את סיכוייו לחזור לפשיעה, כבסיס לקבלת החלטות שיפוטיות על שחרור מוקדם מהכלא. ב־2016, סדרת כתבות באתר "פרופבליקה" העלתה חששות שמערכת ה־COMPAS סובלת מהטיות גזעניות, נוכח ההבדלים בין התפלגויות הערכות הסיכונים שהפיקה המערכת עבור נאשמים שחורים לבין אלו שהופקו עבור נאשמים לבנים. אבל, באותה שנה דחה בית המשפט העליון של ויסקונסין טענה לפיה עצם השימוש במערכת מפר את הזכות למשפט הוגן, וקבע שניתן להשתמש במערכת COMPAS כמקור מידע בהחלטה השיפוטית, ובתנאי ששאר הגורמים שהובאו בחשבון יירשמו.

פריצתו של ממשק ChatGPT לחיינו בנובמבר האחרון, העובדה שהוא עבר בקלות את מבחני לשכת עורכי הדין במדינות שונות, ויכולות הכתיבה, התימצות, ההשוואה בין טקסטים וגם הגישור שלו ויכולתו להסביר בשפה מובנת מדוע החליט כפי שהחליט – מספקים לנו יכולת להציץ אל האפשרויות הממתינות מעבר לפינה, ולהבין שהחסמים העומדים בפני מתן סמכות החלטה שיפוטית למכונות אינם טכנולוגיים אלא חסמים משפטיים, ולא פחות מזה, גם התנהגותיים.


אפקט מנציח פערים

אין זה סוד שהמערכת השיפוטית מלאה בהטיות גלויות וסמויות, והשאיפה לנטרל אותן ככל האפשר מן הגורם האנושי מפתה מאוד. מצד אחר, למערכות האוטומטיות נטייה להנציח ולשעתק הטיות מאחר שהן מתאמנות על המערכת הקיימת והטיותיה. למשל, מערכות בינה מלאכותית שיידרשו להכריע בסכסוך שיפוטי יסתמכו על תקדימים. אימון בינה מלאכותית בנתונים היסטוריים שבהם מגולמת (במשתנים סוציו־אוקונומיים) הטיה מערכתית לחובתה של קבוצת מיעוט עלולה לייצר מערכת שיש לה אפקט מנציח פערים. יתרה מזאת, כדי לאפשר למידה מהחלטות תקדימיות נדרש גם מידע חוץ־משפטי. גם כאן, מחקרים אקדמיים רבים הראו בעבר שתוצאות משפטיות עשויות להיות מושפעות מגורמים כגון שעת הדיון וסמיכותה לארוחת הצהריים, שלא לדבר על מוצאם של המתדיינים או השופט. מערכת לומדת מסוגלת לאתר תבניות כאלה בקלות יחסית, ולהמשיך לשעתק אותן מתוך מחשבה שכך נכון שיתנהל העולם.

כלומר, מצד אחד מערכות החלטה שיפוטיות מבוססות למידת מכונה עשויות לתרום לאובייקטיביות של ההחלטה ולניקוי שלה מהטיות אנושיות, אבל ייתכן באותה מידה כי נוכח קיומן של הטיות אלגוריתמיות, זוהי אינה אלא מראית עין של אובייקטיביות. בנוסף לסוגיית ההטיות קיים גם החשש מפני היעדר שקיפות של מערכות אלגוריתמיות וחוסר היכולת להתחקות אחר תהליך קבלת ההחלטות שלהן, שקילת הראיות והאיזון שהן מבצעות בין שיקולים שונים. כל אלה הם אתגרים משפטיים שהשיח הציבורי והמקצועי לגביהם מצטבר והולך.

אבל לא פחות מעניין מאלה הוא ההקשר ההתנהגותי. אחד האתגרים הגדולים של המעבר לשימוש במערכות לומדות, בהקשרים מגוונים וגם בהקשר של "בית המשפט הרובוטי", הוא יצירת הממשקים שבין אנשים לבין מכונות. האם שופט אנושי רשאי להעביר את כל שיקול הדעת שלו למכונה? האם הוא חייב לסמן או לנמק את העובדה שהסתמך – או דווקא שבחר שלא להסתמך – על אלגוריתם? כל אלה שאלות שיצטרכו בעתיד הקרוב חשיבה ותשובות.

מן העבר השני של כס השיפוט ניצבת שאלה מאתגרת אפילו יותר: מהי מערכת היחסים שבין בעלי דין לבין המערכת האמורה להחליט בעניינם? התפישה המקובלת כיום היא שהחלטה שיפוטית או מעין־שיפוטית על ידי מכונה, עלולה לפגוע בכבוד האדם ובזכותו להליך הוגן, בין אם בהרשעה פלילית, בשומת מס או בסכסוך בין שני צדדים לחוזה. לכן, צריך לאפשר לאנשים את היכולת לדרוש ששופט בשר ודם, ולא מכונה, יפסוק בעניינם. החשש הוא מפני שחיקת הסובייקט האנושי בתור שכזה, והנכחת תחושות של היעדר נראות, חוסר ערך, ותסכול נוכח מציאות שרירותית. תקנות הגנת המידע האירופיות, למשל, מקנות זכות לאדם שלא יתקבלו בקשר אליו החלטות מבוססות מכונה על בסיס עיבוד המידע האישי שלו, כביטוי לתפישה שלפיה החלטה אוטומטית לגבי זכויות פוגעת בכבוד ואינה מאפשרת תשומת לב ויחס אישי, שלא לדבר על אמפתיה.

אבל האם התפישה הזאת של ההגנה על מה שאנחנו רואים ככבוד היא הכרחית? אולי מוטב לפנות אל מושאי ההחלטות ולשאול אותם אם הם כה חוששים מן המכונות, בטרם באים להגן עליהם מפני השופטים הרובוטים? בסדרת מחקרים שערכו חוקרים מכמה אוניברסיטאות והתפרסמה לאחרונה בכתב עת של אוניברסיטת הרווארד, הם מזהים התפתחות. במחקרים הראשונים אפשר לראות פער ב"הוגנות הנתפשת", כלומר בתחושת ההוגנות והצדק הפרוצדורלי של בעלי דין ביחס למכונות, ואנשים סומכים יותר על שופטים אנושיים. אבל אם יוצרים תהליך של מתן אפשרות לדבר ולהישמע בפני המכונה, וגם מעניקים לבעלי הדין זכות לקבל הסבר לוגי לגבי ההחלטה, אזי הפער בהוגנות הנתפשת נעלם, ולא חשוב לבעלי הדין אם זהו שופט בשר ודם או רובוט־שופט.

אפשר היה להניח ששימוע מול מכונה יייחשב לחסר משמעות או חלול, כי לרוב אנחנו מקשרים את התחושה ששמעו אותנו או ראו אותנו עם העובדה שמי שעשה זאת הוא בעל יכולת לגלות אמפתיה. אבל, ככל שיכולת המכונות משתכללת והולכת – מבחינת יכולתן לזהות שפה, תנועות גוף, הבעות פנים ולכן גם רגשות, ולהגיב בהתאם – החשש מפניהן יקטן והן יוכלו לשמש מקור לתחושה שהן מסוגלות להעניק צדק פרוצדורלי. יתכן שאנחנו לא רחוקים מהיום שבו אנשים יבקשו להישפט על ידי מכונות ולא על ידי שופט אנושי, שעלול להיות עצבני לפני ארוחת הצהריים.


אימון "שריר הנכונות"

התופעות האלה יתקדמו לא רק בעולם המשפט. אפשר לחשוב על עולם האבחנה הרפואית בתור דוגמה דומה. גם אם רופאים יגידו שהמערכות האוטומטיות מעוררות בעיות של פרטיות והסכמה, וגם שעל אף מיעוט הידע האישי שלהם ("אני מעדיף תרופה כזאת ולא אחרת כי יש לי איתה יותר ניסיון"), עדיף להם להחליט בעצמם ולא באמצעות אלגוריתם, הרי שמחר עלולה להגיע תביעה דווקא מצד המטופל לשימוש במערכת שנתפשת כמדויקת, רחבת היקף ועמידה בפני הטיות. רופאים יצטרכו להצדיק את אי הפנייה שלהם אל המכונה ולא את ההסתמכות עליה, ומטופלים ירצו את הקשר האישי – עם מכונה רעננה ולא עם רופא עייף.

בראשית, היו אלה הטייסים שנדרשו לסמוך על מכונות גם כשתחושת הוורטיגו הפיזית שלהם היתה חריפה. כעת, בעלי דין ומטופלי מערכת הבריאות יעברו תהליך דומה של אימון "שריר הנכונות" להסתמך על קבלת ההחלטות של מכונות. הדבר יקרה רק אם יוכלו לחוש שהמכונות יודעות להעניק להן "מבט" אמפתי. ככל שהכלים מבוססי הבינה המלאכותית יהיו כאלה שנעים ונוח להישען ולהתממשק איתם ולתקשר איתם בגלל יכולות השפה הטבעית שלהם, הנכונות לעשות זאת תגבר.

אבל האם זה כדאי? מנקודת ראות של יעילות, ייתכן שכן. מנגד, זהו ניסיון לגרום לאנשים להאמין שמכונות יכולות לראות אותם ולהרגיש כלפיהם אמפתיה. וזו, בפשטות, אחיזת עיניים. האם מערכת משפט שבה יש שופטים שהם "אנשים מזויפים" שקשה להבדיל בינם לבין "אנשים אמיתיים" תהיה מערכת משפט צדק? האם כשלא תהיה אבחנה בין אדם כקטגוריה ביולוגית לבין "יחידה" שאנחנו נדרשים לקום לכבודה בהישמע הקריאה "בית המשפט!" נוכל לספר לעצמנו על עליונות המשפט? אלה כבר אינן שאלות משפטיות וגם לא התנהגותיות. אלה הן שאלות מוסריות, שאנחנו משליכים בצד הדרך כשאנחנו דוהרים להפוך מודל שפה לשופט עליון.


המאמר פורסם לראשונה במגזין TheMarker