מאמר דעה

פייק ניוז: הדור הבא

| מאת:

טכנולוגיה חדשה לוקחת את הפייק ניוז צעד אחד קדימה, ומאיימת לערער את האבחנה בין אמת לשקר ולשנות את האופן בו אנו תופסים את המציאות. איפה עובר הקו בין טכנולוגיה למוסר, ומי משרטט אותו?

Shutterstock

'Deep Nude' היא אפליקציית דיפ-פייק המאפשרת ליצור תמונות עירום של נשים (בלבד) בהסתמך על תמונות שלהן בלבוש, תוך שימוש באלגוריתם של למידת מכונה. בגרסה החינמית, נראה "סימן מים" גדול על תמונת העירום שמבהיר במפורש כי מדובר בפייק. בגרסה שעולה חמישים דולר, סימן המים קטן וממוקם בצד וכך אפשר להסירו בקלות. אחרי חצי מיליון הורדות וקריסה של השרת, הוסרה התוכנה על ידי היוצר שלה.

המקרה המעצבן של Deep Nude מלמד כיצד ניתן לייצר הפחדה, תודעת שליטה, ופגיעה בפרטיות במובנים שלא חשבנו עליהם בעבר. העובדה שלא מדובר בתמונות מקוריות אינה משנה, כי הרי בעיני המתבונן זה נראה אמיתי לגמרי.

ההשלכות החברתיות הרחבות יותר של הטכנולוגיה הזאת הן העניין העיקרי. אין מדובר רק בחשש מחיקוי מזויף של מועמדים פוליטיים. טכנולוגיות דיפ-פייק מובילות לחוסר יכולת להבחין בין אמת ושקר; לקושי הולך וגובר לברר את המציאות ואת התופעות והתהליכים המתרחשים בה; ולחוסר אמון שלנו בעצמנו וביכולת שלנו לברר ולדעת מה נכון ומה לא נכון בעולם הסובב אותנו. שלושת אלה יחד מאיימים על הבסיסים השלטוניים, על תפקוד המוסדות וגם על היכולת לקיים יחסי אנוש ויחסים חברתיים מתפקדים.

המעבר מפייק ניוז טקסטואלי לתמונות, מעורר חשש שתמונה מזויפת אחת שווה יותר מאלף מילים מזויפות. סרטוני הדיפ-פייק שהופצו לאחרונה טלטלו אותנו כי יש בווידאו משהו שגורם לנו לייחס לו אמינות גבוהה יותר משל טקסט ותמונה גם יחד. לכן, אין זה מופרך להניח שדיפ-פייק אינה רק ההפחדה הטכנולוגית תורנית, אלא היא למעשה הטכנולוגיה המערערת שתשנה את הדרך שבה אנחנו תופסים את המציאות.

כמו בהקשרים טכנולוגיים אחרים, ישנן שלוש דרכים להתמודד עם איום הדיפ-פייק. הדרך הראשונה היא להעלות את המודעות של הציבור לזהות זיופים בעיקר באמצעות הטלת ספק. הבעיה היא שלפעמים השפעה על התודעה נשארת גם אחרי שאנשים מבינים שמדובר בזיוף. יותר מזה, ללמד אנשים לא להאמין לשום דבר הוא עניין בעל מחירים חברתיים כבדים.

הדרך השנייה היא לייצר מרוץ חתול ועכבר בין מפתחי טכנולוגיית הדיפ-פייק לבין אלה שיפתחו טכנולוגיות זיהוי. בפנטגון כבר עובדים  עם חברות טכנולוגיה  ועם האקדמיה כדי לפתח כלים שיאפשרו לזהות סרטונים שנוצרו באמצעות "דיפ פייק" ולסמנם ככאלה. 

הדרך השלישית היא רגולציה, הן על פיתוח מוצרי דיפ-פייק והן על הפצתם. הצעת חוק שעיקרה חובת סימון ושקיפות שמדובר בדיפ-פייק כבר הונחה על שולחנו של הקונגרס האמריקני בתחילת יוני. בנוסף צריך לזכור שבארצות הברית יש לרשתות החברתיות פטור מאחריות לתוכן שעובר דרכן, שנוצר כדי לעודד את התפתחות האינטרנט. קיטוב חברתי, ביטויי שנאה ופייק ניוז לא גרמו עד כה למחוקקים לבטל את הפטור, אבל ייתכן שהדיפ-פייק יהיה קו פרשת המים להטלת אחריות כזאת. לא לחינם אמר מרק צוקרברג  בשבוע שעבר שיתכן שפייסבוק תתייחס לדיפ-פייק באופן שונה מאשר לפייק ניוז, שבהן היא מסרבת לגעת.

הסיפור של  Deep Nude מלמד שוב שבטכנולוגיה כשלעצמה, אין דבר המחייב לעשות טוב והאתגר נמצא בהצבת גבולות מוסריים. לאחרונה, נשמעים קולות לפיהם אין זה מספיק לשקול שיקולים אתיים בפיתוח מערכות לומדות, אלא, שיש מערכות לומדות שלא צריך לפתח בכלל, אפילו באמצעות איסור חוקי, על כל הקשיים המתעוררים כתוצאה מכך. מפתח תוכנת Deep Nude הסיר אותה מהשרתים בטענה ש"העולם עוד לא מוכן". על כך אפשר לומר, אנחנו מוכנים לגמרי. אנחנו פשוט לא רוצים.

פורסם לראשונה בדה מרקר.


*תא"ל (מיל) איתי ברון הוא סגן ראש המכון למחקרי ביטחון לאומי