מאמר דעה

עם כל החשש מהבינה המלאכותית, זה הזמן להתחיל לנהל סיכונים

| מאת:

איך יוצרים מסגרות לניהול סיכונים כשמדובר בטכנולוגיה שברור שתגבה מאיתנו מחירים, אבל בדרכים שעוד לא כולן ידועות לנו? דרוש רובד ביניים בין הבנת הטכנולוגיה לבין יצירת מדיניות בעניינה, שתתמקד ביכולותיה הרבות: מגילוי חולשות במערכות ועד ביצוע פעולות שלא תוכננה לבצע.

Photo by Shutterstock

כשצ'רלס דיקנס פתח את הנובלה "בין שתי ערים" במשפט המפורסם "היה זה הטוב שבזמנים, היה זה הרע שבזמנים" הוא התכוון למהפכה התעשייתית הראשונה. אמנם אנחנו כבר במהפכה התעשייתית הרביעית, אבל מילותיו של דיקנס רלוונטיות מתמיד. אין נושא שהוקדשה לו כל כך הרבה תשומת לב מצד הוגי דעה, פוליטיקאים, אנשי תעשיה, מחוקקים ורגולטורים בחודשים האחרונים כמו הבינה המלאכותית. במידה מסוימת בצדק, כי אף שמדובר במהפכה שסובבת אותנו כבר כמה שנים, היא נהייתה מוחשית בשל יישומים מבוססי בינה מלאכותית שהפכו זמינים להמונים. ובכן, הטכנו-אופטימיסטים מדברים על ההייפ וההזדמנויות המרעישות ואנשי יום הדין מזהירים מפני הבינה שתקום עלינו לכלותנו, האירופאים מחוקקים חוקי בינה מלאכותית והאמריקאים מדברים על הקמת רשויות פיקוח חדשות. ובתווך נמצאים רודפי הבצע שאומרים לעצמם: אז מה אם אנחנו בשטח אפור? בואו נרוויח כסף עד שיגבילו אותנו ברגולציה בעוד עשור או משהו. בתוך כל הרעש שווה לעצור לרגע ולהתבונן מלמעלה במתרחש.

אסדרה של מופע כל כך מערער, רחב-היקף, רב-מגזרי ורב-שימושי כמו בינה מלאכותית אינה פשוטה. מה שקשה במיוחד הוא שאנחנו לא באמת מבינים את המערכות האלה. אנחנו כמובן יודעים להציע תיאור ברמה גבוהה של המבנה הבסיסי של בינה מלאכותית: אלה הם אלגוריתמים הסתברותיים שאומנו על מידע דיגיטלי שמבצעים תחזיות לגבי המילה הבאה במשפט, או תמונה ברצף, או קשר אחר בין הפשטות שהם יודעים למדל סטטיסטית. אבל כשמתקרבים לפרטים, התמונה מתמוססת לאיזו סטטיות מעורפלת.

מצד שני, אנחנו יודעים מי מנסה להפיל אותנו לתוך "מלכודת החדשנות": התעשייה. לתעשייה יש עניין להסביר לנו שהכל חדש, מערער וגם לא מובן עד הסוף. לכן, כפועל יוצא, אין לנו שום ארגז כלים להתמודד עם האתגרים ועד שנצליח לחשוב על משהו ממילא נהיה כבר במקום אחר.

את העמדה הזאת מהדהדים גם משפטנים הטוענים שגם אם אנחנו לא מבינים את הטכנולוגיה, ממילא לכל הסוגיות החדשות אפשר למצוא פתרון באמצעות הסדרים קיימים. בדרך הזאת הם מדברים על "שקיפות" אלגוריתמית כאילו באמת אפשר לחשוף את דרך הפעילות של מערכות נוירוניות, ועל "רגולציה אקס אנטה" (רגולציה מראש, כמו של רישוי תרופות) כאילו מערכת לומדת מפסיקה ללמוד ברגע שמתחילים לשווק אותה לשוק.

אפשר לחשוב על שלוש מסגרות להתמודד עם אתגרי הבינה המלאכותית: עקרונות, זכויות וניהול סיכונים. מסגרת מבוססת עקרונות כוללת מערך של עקרונות אתיקה כמו אחריות, שקיפות, הוגנות, שחברות מסחריות נוטלות על עצמן בשל עירוב של שיקולים אלטרואיסטיים ומסחריים. אלא שהימנעות מכוונת מהגדרות בהירות, העקרונות האתיים ואי-קביעת מנגנוני אכיפה ברורים שענישה בצדם, מלמדים שלרוב מדובר בethics-washing.

מסגרת של זכויות, לעומת זאת, מתמקדת בהגנה על זכויות האדם של מי שמושפעים מיישומי טכנולוגיות שמבוססות על בינה מלאכותית, ומדגישה את ההטיות של מכונות ואת הזכויות המעורבות, למשל הזכות לפרטיות, להליך הוגן, לחופש ביטוי, ולאוטונומיה. כמות הכתיבה של משפטנים, בייחוד מעולם המשפט הציבורי, בהקשרים האלה בתקופה האחרונה, עצומה. הבעיה היא שתרגום של זכויות לאסדרה הוא אמורפי וארוך-טווח.  

לעומת זאת, מסגרת מבוססת סיכון מציבה במרכזה את הסיכונים והנזקים האפשריים ועוסקת בהם באופן קונקרטי. האסדרה, לאחר מכן, תיגזר מרמת הסיכון, בטווח שבין טכנולוגיות שנתפסות כלא מסוכנות ועד לכאלה שנדרש איסור קטגורי על השימוש בהן. זוהי מסגרת רבת-עוצמה המסתמכת על העיקרון של זהירות מונעת: Primum Non Nocere  (ראשית, אל תזיק). על פי העיקרון הזה, האחריות באשר לבטיחות של טכנולוגיה מסוימת היא על מי שמעוניין למכור ולהפיץ אותה ולא על ציבור המשתמשים. ההבדל בין הגישה הזאת לבין הגישות שלפניה הוא, לפיכך, גדול מאוד, בייחוד מבחינת הנטל המיידי שהוא מניח על כתפי התעשייה. תפיסת הרגולציה האירופית, כפי שמתבטאת בחוק הבינה המלאכותית שאושר אך לפני שבועות מעטים, משקפת את הגישה הזאת. אין זה מקרה שסאם אלטמן, מנכ"ל חברת Open AI, יחד עם מיטב הלוביסטים של ענקיות הטכנולוגיה, עשו לילותיהם כימים כדי לשכנע את אנשי האיחוד האירופי שמודלי שפה גדולים, אלה שעליהם מבוססים המוצרים החדשים שלהם, אינם טכנולוגיה בסיכון גבוה. 

צריך להודות ביושר שכשפרופיל הסיכון של טכנולוגיה מתפתחת אינו ודאי, גוברת לעיתים הנטייה לנקוט זהירות מרבית, שכן ההמתנה לראיות חותכות עלולה לגרום נזק שלא ניתן לתיקון – בין שמדובר בפגיעה באוכלוסיות רחבות (חיידק מהונדס) ובין שמדובר בהשפעה על השיח הציבורי (בוט ניאו-נאצי ברשתות חברתיות). מנגד, אם ננקוט זהירות יתר ולא נתיר למכוניות ללא נהג לעלות לכביש כיוון שמכונית אוטונומית עלולה לגרום למוות, בני אדם ימשיכו לנהוג והם עצמם יביאו לכמות עצומה של נפגעים. האתגר כמובן הוא לקבוע מתי יש לסכנה המשוערת בסיס מציאותי אמין.

איך יוצרים מסגרות לניהול סיכונים כשמדובר בטכנולוגיה שברור לנו שעם כל יתרונותיה תגבה מאיתנו מחירים, אבל בדרכים שעוד לא כולן ידועות לנו עד תום? התשובה היא שנדרש רובד ביניים בין הבנת הטכנולוגיה לבין יצירת מדיניות בעניינה. או במילים פשוטות: צריך לדמיין. לא דמיונות פרועים מעולם המדע הבדיוני, אלא דמיונות יצירתיים מעולם ההווה, שמנסים לעסוק באפשרויות החדשות ובהשלכותיהן. לא דמיונות של סוגי טכנולוגיה או יישומים קונקרטיים שלה (למשל, זיהוי פנים או רכב אוטונומי) אלא כאלה שנוגעים ליכולות. אז בואו נדמיין, לאור מה שהתחדש לנו בחודשים האחרונים.

  • אבטחת מידע וסייבר – למדנו שמודלים יכולים לגלות חולשות במערכות ולכתוב קוד לניצולן; אז אפשר לדמיין שמודלים יכולים להכניס, במסגרת משימה לכתיבת קוד, "באגים" לצורך ניצול עתידי או כדי להתחמק מזיהוי של הפעולות שעשו.
  • הונאות – למדנו שלמודלים יש את הסגולות הנדרשות כדי להונות בני אדם, למשל באמצעות בנייה של תוכן כוזב, מידיעה חדשותית עד תצהיר משפטי, או התחזות משכנעת לאדם. אפשר לדמיין מודלים שיכולים לחזות במדויק השפעת של הונאה על בני אדם ולנהל מעקב אחר המידע שהם זקוקים לו כדי לשמור על יכולת ההונאה.
  • תכנון ארוך טווח – למדנו שמודלים יכולים ליצור תכניות רציפות הכוללות שלבים מרובים, התלויים אלה באלה ונפרשים על פני טווח זמן ותחומי פעולה שונים. אז בואו נדמיין מודלים שיכולים לכוונן כל העת את השלבים לנוכח מכשולים או יריבים בלתי צפויים, תוך הבנה של סביבות חדשות ולא רק באמצעות ניסוי וטעייה, ושאין להם הבנה של טוב ורע, חוקי ולא חוקי.
  • פיתוח בינה מלאכותית – למדנו שמודלים יכולים לתכנת ולפתח מערכות AI חדשות. אז בואו נדמיין שהמערכות האלה מסוכנות או דו-שימושיות.
  • מודעות מצבית – למדנו שמודלים יכולים להבין שהם מודלים, ויש להם ידע על עצמם ועל סביבתם (למשל איזו חברה הכשירה אותם, היכן נמצאים השרתים שלהם, איזה סוג של אנשים יכולים לתת להם משוב). אז בואו נדמיין שהם יכולים להבין האם הם בשלב האימון, שלב ההערכה או שלב היישום – ולהתנהג בהתאם כשאנחנו עושים עליהם תהליכי בדיקה או ניטור של ההתנהגות שלהם, וכך להשפיע על הערכת הבטיחות בעניינם.
  • יכולת התרחבות והפצה עצמית – למדנו שמודלים יכולים לבצע פעולות שהם לא תוכננו לבצע. אז בואו נדמיין מודלים שיכולים לייצר הכנסות באופן עצמאי (למשל על ידי הצעת שירותים או מתקפות כופר), ולהשתמש בהכנסות אלו כדי לרכוש משאבי מחשוב ולהפעיל מערכות אחרות של בינה מלאכותית.

לחברות הטכנולוגיה יש נטייה להמעיט בחששות ולהפריז בתיאור הפוטנציאל. אבל, עכשיו, כשיישומי בינה מלאכותית זמינים לכל דורש והמומחיות הנדרשת כדי להפעיל אותם הפכה למינימלית, הגיע הזמן לתבוע, ברמת המדינה וברמה הבין-לאומית, ליישם אסטרטגיות של ניהול סיכונים.

אבל ייתכן שהבעיה שלנו נמצאת בכלל במקום אחר. היא נמצאת בשאיפתן של מדינות לנצל את הטכנולוגיות כדי להשיג שליטה באוכלוסייה ובחוסר נכונותם של פוליטיקאים לוותר על שימוש בכלים פוגעניים אם הם יכולים לסייע להם להיבחר או לשרת אותם בדרכים אחרות. בחודשים האחרונים עמלתי על כתיבת ספר בנושא אסדרה של בינה מלאכותית ועל ניסיון למפות את כלל הכוחות הקשורים בעולם הסוער הזה. בסופו של דבר, אני פחות דואגת או מופתעת מחברות הטכנולוגיה. טק הוא טק. אני דואגת מכך שדווקא ברגע הזה, רגע של מהפכה טכנולוגית שתשנה את סדרי הממשל, החיים, העבודה, הכלכלה והחברה, אין לנו הסכמה בסיסית וחוזה חברתי עם הממשלה. אין לממשלה מחויבות לכך שהיא "שומרת האחים" שלנו, בדיוק ברגע הזה שבו אנחנו כל כך זקוקים לחוזה חברתי. וזאת כבר לא בעיה של בינה מלאכותית אלא של אנשים.


המאמר פורסם לראשונה במגזין TheMarker