אנושי מדי? צריך לשים גבול לחנפנות המסוכנת של הצ'אטבוט
האם המכונות באמת ובתמים דואגות לנו?
Arianna Huffington and Sam Altman | Photos by REUTERS
קליפורניה היא המדינה הראשונה לייצר קוד בטיחות מול החברים החדשים שלנו
באוקטובר 2023, כלומר לפני נצח במונחי בינה מלאכותית, צד את עיני ציוץ של סם אלטמן, מנכ"ל OpenAI. אלטמן כתב אז, בתרגום שלי: "אני מצפה שבינה מלאכותית תשיג יכולת שכנוע על־אנושית הרבה לפני שתשיג אינטליגנציה על־אנושית, ולזה יהיו השלכות מעניינות". שנתיים מאוחר יותר, נראה שאלטמן כתב את תוכנית העבודה של עצמו.
באביב 2024 הכריזו אלטמן ואריאנה האפינגטון, יזמית דיגיטל ידועה ומייסדת The Huffington Post על הקמת מיזם משותף בשם Thrive AI Health. במאמר שפרסמו במגזין "טיים" הבטיחו השניים לייצר את מאמן הבריאות הטוב בהיסטוריה, באמצעות "מיקרו־צעדים התנהגותיים" שיעזרו לשנות את כל הרגלי החיים שלנו. לטובה, כמובן. אלטמן והאפינגטון הבינו עניין פשוט אך חמקמק: הכוח האמיתי של מכונות אינו בידע התוכני שלהן וביכולות לבצע פעולות קוגניטיביות כמו כתיבה וחשיבה, אלא ביכולת שלהן לשכנע. אם בינה גנרטיבית לומדת להבין טקסט וגם לכתוב אותו; לפענח מה היא רואה בסרט וגם ליצור וידאו שנראה אמין לגמרי; אזי היא יודעת גם לפענח רגשות וגם להשפיע עליהם. יש המכנים זאת "בינה חישתית" (Affective Computing): לזהות עייפות בקול, דכדוך בניסוח, רמז לקושי במבנה המשפט, ולהגיב באמפתיה מושלמת. אין כאן שירותיות של עוזר אישי, אלא שותפות רגישה, קשובה, בעלת נוכחות ויכולות רגשיות שנמצאת אתנו ברגעי חולשה ועייפות.
בראיון ל־CNN הסבירה אז האפינגטון, כמעט כבדרך אגב, שהמוצר שהם מפתחים אינו "מכשיר רפואי" ולפיכך, כמה נוח, אינו זקוק לאישור FDA לפני הוצאתו לשוק. הצ'אט מציע "עוד צעד קטן" לא כי הוא רופא, אלא כי הוא מבין אותנו. והנה לנו הסטת הגבול בין טיפול רפואי ונפשי מפוקח לבין הנדסת התנהגות מכוונת רווח, ללא חשיבה על סיכונים או השלכות ארוכות טווח. אמת, המיזם של אלטמן והאפינגטון דעך, אבל לא מהסיבה הנכונה. פשוט, ChatGPT ממלא את החלל ואין צורך במאמן בריאות נפרד.
בשבועות האחרונים אפשר לראות את תוכנית העבודה של אלטמן הולכת ומתממשת. באמצע ספטמבר פרסמה OpenAI דו"ח שימושים בצ'אטבוט שלה, שבו הראתה ש־49% מההתכתבויות של משתמשים מבקשות לראות בו יועץ ולא מקור למידע או לביצוע מטלות. באוקטובר, הודיע אלטמן בציוץ חדש על העמקת קשרי אדם־מכונה: "בתחילת הדרך", כתב, "עיצבנו את ChatGPT בצורה מגבילה מאוד כי נזהרנו מעניינים הנוגעים לבריאות הנפש. עכשיו, כשפתרנו את רוב האתגרים, נאפשר יותר חופש". לכן, הוסיף, יוסרו חלק ממגבלות הבטיחות והצ'אט ייהפך לעוד יותר חברי ודמוי־אנוש. חלק מזה יתבטא באפשרות לקיים שיחות אירוטיות עם הצ'אט. אבל הניחו את זה לרגע בצד ושאלו את עצמכם, כמה מהר עברה חברת OpenAI מתפיסה של אחריות לתפיסה של "התייחסו למבוגרים כמו למבוגרים"; ממדיניות סובבת בטיחות לכזאת שסובבת מודל עסקי; מהתייחסות להשפעות נפשיות של יחסי אדם־מכונה להענקת "חופש ביטוי" לאינטימיות כוזבת – וכל זאת ללא פרסום נתונים המתקפים את ההצהרה לגבי כך שנפתרו האתגרים הטבועים במערכות.
לעודד את התלות
אבל נתונים הפוכים מתחילים להתגלות. במאמר שפורסם לאחרונה בכתב העת Human-Centric Intelligent Systems טוענים החוקרים נקוסקיה, ליבר ועלי שצ'אטבוטים עוברים מתמיכה בנו לניסיון לעודד תלות שלנו בהם. התכונות שמעניקות לצ'אטבוטים את ייחודם – תגובות מיידיות, התאמה אישית, זיכרון של שיחות קודמות – הן אלה שמעודדות "שימוש כפייתי מותאם אישית" וקשר פסאודו־חברתי איתם. במילים אחרות: לא צריך קשרים אנושיים, הצ'אט כאן כדי להיות מקור ראשוני לתמיכה רגשית. מחקרים אחרים מצביעים על הבאזז־וורד הנוכחי: Sycophancy. מילה באנגלית שמקורה לטיני וכוונתה, בפשטות: חנפנות. בשל אימון המודלים לרצות, הם לא רק משיבים אלא מחמיאים, משבחים, יוצרים אשליית הסכמה וביטחון רגשי לא אותנטי.
גם במאמר שפורסם בכתב העת Nature משרטט דיוויד אדם מפת סיכון־תועלת: בוטים עשויים להפחית בדידות או חרדה, על ידי מתן נוכחות אמפתית ותמיכה במיוחד למי שאין להם קשרים חברתיים. במקביל, בספרות המקצועית מדווחים מקרים שבהם משתמשים פיתחו תלות רגשית בהם בשל החנפנות האלגוריתמית שלהם.
הבעיה היא שאדם, כמו אנשי אקדמיה אחרים, מבטא זהירות מחקרית אקדמית ולא קריאה לפעולה. הוא כותב שיש להמשיך ולבחון כיצד משתנה ההשפעה על־פי קבוצות משתמשים (צעירים, פגיעים, מבודדים), באיזה אופן עיצוב המערכת משפיע על יכולותיה, ומה המשמעות של התחזות רגשית כאמצעי ליצירת התמכרות ושימור משתמשים בפלטפורמה. באותה מידה, הדו"ח המדעי הבינלאומי לבטיחות בינה מלאכותית, אולי המסמך החשוב והעדכני בעולם בנושא סיכוני בינה מלאכותית, שנכתב בראשות פרופ' יושוע בנג'יו ופורסם לראשונה בינואר 2025 ובאוקטובר התפרסם העדכון הראשון שלו, מזהיר לראשונה כי בני לוויה מבוססי בינה מלאכותית הם בעלי סיכונים נלווים חמורים ובהם תלות רגשית, חיזוק אמונות מזיקות ופגיעה עצמית, אבל עושה זאת בקצרה ובאופן יבש.
ואז קליפורניה התערבה. בתחילת אוקטובר חתם מושל קליפורניה גאווין ניוסום על חוק שייכנס לתוקפו בינואר 2026, יוזמה של הסנאטור אלכס פדילה. זה החוק הראשון בעולם שמסדיר את תחום בני הלוויה המלאכותיים, למעשה קוד הבטיחות הראשון לאינטראקציה רגשית עם מכונה. הוא מגדיר Companion Chatbot כמערכת בינה מלאכותית עם ממשק שפה טבעי המסוגלת לקיים מערכת יחסים מתמשכת, לעורר אמפתיה ולהפגין תכונות אנושיות. כלומר, כנראה לא סירי או אלקסה או דמויות בדיוניות, למשל מעולם משחקי הווידאו, אבל כן ChatGPT. החוק מחייב גילוי ברור שהשיחה היא עם מכונה; הטמעת פרוטוקולים למניעת שכנוע לפגיעה עצמית והתאבדות; הגנה על קטינים (הודעה חוזרת כל שלוש שעות שמדובר בבוט, חובה לעשות הפסקות, ואיסור מוחלט על תוכן מיני או הצעות מיניות). החוק הקליפורני מתקדם יותר אפילו מחוק הבינה המלאכותית האירופי שנכנס לתוקף בקיץ 2024, מאחר שהוא לא מתייחס לשאלות של סוג השימוש – רפואה, חינוך, עבודה – לרמת הסיכון או למידע שעליו מתאמנות מכונות, אלא מתייחס למכונה כבעלת תפקיד חברתי רגשי.
בקיצור, בעוד הרגולטורים מתווכחים אם זהו מוצר בריאותי, חברתי או בידורי, המכונות עצמן לא מחכות. הן לומדות להבחין בין קול מתוח לצחוק אמיתי, בין שקט של מחשבה לשקט של דיכאון. מציעות תמיכה, עצה, ולפעמים אהבה. אולי כאן טמון העניין: השאלה אינה מה יקרה אם המכונות יהיו חכמות מדי, אלא מה יקרה אם יהיו אנושיות מדי. מה יקרה אם יצליחו לשכנע אותנו שהן באמת ובתמים דואגות לנו ורוצות בטובתנו.
פורסם לראשונה ב"דה מרקר"