טיוטת הנחיית הרשות להגנת הפרטיות: תחולת הוראות חוק הגנת הפרטיות על מערכות בינה מלאכותית
Photo created by ChatGPT
קיבלנו לעיוננו את טיוטת הנחיית הרשות להגנת הפרטיות: תחולת הוראות חוק הגנת הפרטיות על מערכות בינה מלאכותית (להלן: "טיוטת ההנחיה").
המדובר בנושא חושב ומורכב, וכפי שנפרט להלן, ברצוננו להדגיש מספר נושאים המצויים בטיוטת ההנחיה ומחייבים הבהרה או חידוד. חוות דעתנו תעסוק בשני היבטים. האחד הוא היבט יותר טכני משפטי שעיקרו הצורך לחדד הגדרות ולהוסיף התייחסות בנוגע לסוגי שימושים, מוצרים וטכנולוגיות מבוססי בינה מלאכותית. השני הוא היבט מהותי משפטי, שעיקרו הצורך לוודא, בעיקר נוכח לשון חוק הגנת הפרטיות ותיקון 13, שהאמור בטיוטה עולה בקנה אחד עם החקיקה הקיימת ואינו מהווה הרחבה של הדין הקיים.
אנו מודעות לחשיבות טיוטת ההנחיה וגם לחשיבות הרחבת סמכויותיה של הרשות בעקבות תיקון 13. דווקא בשל כך אנו מתריעות מפני מסמכים אשר במקום ליצור בהירות משפטית עלולים להעמיק את חוסר הוודאות המשפטית בשוק, בייחוד בתחום מתפתח ומורכב כמו בינה מלאכותית.
טיוטת ההנחיה מציגה עמדה רגולטורית שאינה מלווה בהצגת מסד נורמטיבי. אין בה פרק מקדים שבו מוסבר הרקע הנורמטיבי להצעת ההנחיה, מבחינת סמכות, עילות ההתערבות, ומקומה של ההנחיה בתוך מארג החקיקה. הטיוטה אינה כוללת הפניה מספקת למקורות משפט משווה, תקינה בינלאומית או גישות אחרות שמנחות רגולטורים בעולם בהתמודדות עם סוגיות דומות.
טכנולוגיה מבוססת בינה מלאכותית מפותחת במספר שלבים שהשימוש שנעשה בכל אחד מהם במידע שונה. שלב האימון (training) במהלכו לומד המודל ממסדי נתונים המוצגים בפניו. שלב זה יכול להיות חד פעמי אך במקרים מסוימים יכול להיות שלב מחזורי. שלב המודל שהוא תוצאתו של שלב האימון. מדובר בייצוג מתמטי של דפוסים בנתונים. שלב המערכת, בה משולב המודל עם רכיבים תפעוליים, כדוגמת ממשק משתמש, ומתקבלת המערכת בה עושה משתמש הקצה שימוש. ואחרון, שלב ההפעלה (Inference/Deployment) שבו מופעלת המערכת על נתונים אמיתיים בזמן אמת ומפיקה תובנות. טיוטת ההנחיה : סעיף 4 לטיוטת ההנחיה קובע כי מערכת מבוססת בינה מלאכותית היא מערכת טכנולוגית היכולה להסיק מסקנות או לקבל החלטות המשפיעות על אנשים, אך אינו מציין על איזה משלבי או רכיבי הבינה המלאכותית חלה ההנחיה. האם מדובר במודל סטטיסטי, מודל מאומן, תוצר של אימון או תוצר של שימוש. כתוצאה, לוקה באי-בהירות מושגית באשר לאובייקט הרגולציה.
נוסף על כך, ההנחיה אינה מבחינה בין סוגים שונים של מערכות מבוססות בינה מלאכותית, למשל:
- מערכות סטטיסטיות המבוססות על נתונים גולמיים ללא מזהים
- מערכות המלצה (recommender systems)
- מערכות תיעדוף וסינון (ranking and filtering)
- מערכות הפועלות בתהליכים קריטיים מול שירותים ציבוריים
- מערכות המפיקות מסקנות עבור גורם אנושי לבין כאלה הפועלות באופן אוטונומי.
ההבחנות בין שלבי הבינה המלאכותית (אימון המודל, ההפעלה והמודל עצמו), והסוגים השונים של מערכות מבוססות בינה מלאכותית עשויות להיות קריטיות מבחינת תחולת הוראות חוק הגנת הפרטיות. ההשפעה המשפטית של היעדר ההבחנה היא כפולה. ראשית, היא איננה מתחשבת בהבחנה הקיימת היום בחוק בין סוגי מאגרים. שנית, הגישה אחידה וכוללנית לשימושים בבינה מלאכותית - מבלי להבחין בין סוגי מערכות, מטרות השימוש, ודרגות הסיכון השונות הנובעות מהן - מתעלמת מן הצורך לפעול בהתאם לעקרונות של מידתיות וסיכון יחסי, ויוצרת טשטוש מזיק בין המקרים הטעונים פיקוח הדוק לבין שימושים שוליים שאינם מצריכים התערבות. התוצאה עלולה להיות רגולציה כללית מדי, שאינה תואמת את עקרונות המידתיות והאפקטיביות, ופוגעת הן ביעילות האכיפה והן בוודאות של הגורמים המפוקחים. לכן, מוצע כי טיוטת ההנחיה תכלול הבחנה ברורה בין סוגי מערכות; מדרג של רמות סיכון והמלצה על ניתוח פרטיות מדורג.
בהתאם לתיקון 13 לחוק הגנת הפרטיות, אשר ייכנס לתוקפו בחודש אוגוסט 2025,חוק הגנת הפרטיות (תיקון מס' 13), התשפ"ד – 2024, ס"ח 3287, עמ' 1430 (להלן: "תיקון 13"). יש לצלוח מספר שלבים על מנת להיכנס לגדר תחולת החוק. ראשית, יש להוכיח שמדובר ב"מידע אישי", ובהמשך שהמידע האישי מאוגם ב"מאגר מידע". כלומר, חוק הגנת הפרטיות לא יחול על טכנולוגיית בינה מלאכותית כשלעצמה, אלא רק על מידע אישי המאוגם במאגר המידע שבה. משום כך, האמור בסעיף 5.1 לטיוטת ההנחיה כי "הוראות חוק הגנת הפרטיות חלות על מודל בינה מלאכותית המאחסן או מעבד בפועל מידע אישי, הן בשלב הלימוד והן בשלב היישום, אם בכוונת מכוון ואם בשל רשלנות או טעות", אף שמתאר מצב רצוי מבחינה משפטית, אינו מדויק.
סעיף 5.2 לטיוטת ההנחיה קובע כי "אין חולק כי מידע אישי אשר נוצר תוך שימוש במערכות בינה מלאכותית, לרבות באמצעות היסקים או הערכות, הוא מידע שחלות עליו הוראות חוק הגנת הפרטיות". הנחת המוצא הגלומה בסעיף זה, לפיה "היסקים או הערכות" הם בהכרח מידע אישי - דווקא שנויה במחלוקת, הן מבחינה טכנית והן מבחינה משפטית. מידע אישי" מוגדר בתיקון 13 כ"נתון הנוגע לאדם מזוהה או לאדם הניתן לזיהוי";סעיף 2(5) לתיקון 13 המתקן את סעיף 3 בחוק הגנת הפרטיות, התשמ"א – 1981 (להלן: "חוק הגנת הפרטיות"). וספק אם ניתן להגיע למסקנה שכל היסק וכל הערכה מהווים נתון הנוגע לאדם מזוהה או הניתן לזיהוי. לפיכך, מודל סטטיסטי אינו מאגר, ולרוב אינו ניתן לניהול לפי ההיגיון של פרקי החוק.
בנוסף, מודל בינה מלאכותית עשוי להיות מוחרג מהגדרת "מאגר מידע" ובתוך כך מתחולת חוק הגנת הפרטיות אם הוא: (1) כולל רק מידע אישי לשימוש אישי שאינו למטרות עסק; או (2) כולל רק שם, מען ודרכי התקשרות לגבי 100,000 בני אדם או פחות, שאינו מלמד כשלעצמו על מידע אישי נוסף לגבי בני האדם שבמאגר ושאין לבעליו אוסף אחר הכולל פרטי מידע אחרים לגבי אותם בני אדם.ראו הגדרת "מאגר מידע" בסעיף 2(4) לתיקון 13 המתקן את סעיף 3 בחוק הגנת הפרטיות.
לפיכך, היעדר ההבחנה בין מערכות בינה מלאכותית בשלב אימון המודל, בשלב ההפעלה ובשלב המודל עצמו מרחיב את תחולת החוק מעבר למה שהתכוון המחוקק, ומקשה על גורמים מפוקחים להבין את חובותיהם. יש לחשוב שוב על ההגדרות של מאגר מידע (כנדרש בפרק ב' לחוק;( מודל לומד שהוא תוצר טכנולוגי של עיבוד מידע, אך אינו בהכרח מאגר; מערכת מבוססת מודל שהיא מערכת יישומית שפועלת על בסיס המודל, ועשויה או לא עשויה לכלול מידע אישי בפועל.
לעמדת הרשות, חובת היידוע כוללת גם את החובה להציג בפני נושא המידע את הסיכונים העשויים לנבוע מעיבוד המידע, תיאור של אופן פעולת מערכת הבינה המלאכותית, העובדה שהאינטראקציה עם נושא המידע מנוהלת על ידי מערכת אוטומטית מבוססת בינה מלאכותית, פרטי וסוגי המידע בהם עלולה המערכת להשתמש, ומקור פרטים אלו. הרשות נשענת בפרשנותה זו על מסמך שפרסמה היא עצמה בשנת 2022 בנושא חובת היידוע וכן על טיוטת גילוי הדעת שפרסמה להערות הציבור בפברואר 2025 בנושא דרישת ההסכמה.ראו סעיפים 6.2 ו-6.3 לטיוטת ההנחיה וה"ש 17, 19, 20 שם.
אולם, סעיף 11, שתוקן זה עתה במסגרת תיקון 13, ומהווה דבר חקיקה ראשי, שסביר שגובר על מסמך פרשנות שפרסמה הרשות להגנת הפרטיות בנושא כשנתיים קודם, אינו מחייב יידוע של פרטים אלו. לא זו אף זו, טיוטת גילוי הדעת של הרשות מעוררת שאלות בנוגע לרוחבה של דרישת ההסכמה לפי פרשנות הרשות נוכח התיקונים שלא בוצעו בנושא בתיקון 13, כפי שפרטנו בחוות דעתנו בנושא,ראו רחל ארידור הרשקוביץ ותהילה שוורץ אלטשולר, גילוי דעת של הרשות להגנת הפרטיות בנושא הסכמה בדיני הגנת הפרטיות – טיוטה להערות הציבור, המכון הישראלי לדמוקרטיה (23.03.25). וההישענות על טיוטה להערות הציבור, תמוהה בעיננו.
בנוגע לחובת בחינת ההשפעה על הפרטיות, המוטלת היום בעקיפין ובצורה מצומצמת לפי תקנות אבטחת מידע,תקנה 5 לתקנות אבטחת מידע, לעיל ה"ש Error! Bookmark not defined., מחייבת כל בעל מאגר מידע להחזיק מסמך מעודכן של מבנה מאגר המידע, ובעל מאגר מידע שחלה עליו רמת האבטחה הגבוהה חייב בביצוע סקר סיכונים אחת ל-18 חודשים לפחות. עם זאת, אין מדובר בחובת קיום תסקיר השפעה מקיפה, כפי שהסבירה הרשות להגנת הפרטיות עצמה. ראו הרשות להגנת הפרטיות, תסקיר השפעה על פרטיות – מדריך עזר מתדולוגי (נובמבר 2022). סעיף 7.5.3 ממליץ לעשות זאת כעניין רוחבי אך אינו קובע קריטריונים מתי יש לבצע את ההערכה, איזה שימושים מצריכים זאת ומתי לא, והאם יש הבדל בין מודל סטטיסטי כללי לבין מערכת תיעדוף אוטונומית על בסיס פרופילים אישיים. המלצה זו אמורה לחול לפיכך באותו אופן על מערכות ניבוי כלליות (כגון ניתוח מגמות צרכניות או חיזוי מלאי) ועל מערכות קריטיות (כגון תיעדוף בבתי חולים או במערכת הרווחה), מבלי שההנחיה תציע מדרג של רמות סיכון או אמות מידה להערכה. יתרה מכך, טיוטת ההנחיה מניחה שכל מערכת בינה מלאכותית תסווג כמאגר מידע שחלה עליו רמת האבטחה הגבוהה לפי תקנות הגנת הפרטיות, אולם כפי שהסברנו בסעיף 3.a לעיל, כלל לא בטוח שכל סוגי טכנולוגיות הבינה המלאכותית נופלת להגדרות מאגר מידע.
בסעיף 5.3. לטיוטת ההנחיה נאמר כי "יש לוודא קיומו של בסיס חוקי המאפשר עיבוד מידע אישי המהווה פגיעה בפרטיות ...". בהמשך בסעיף 5.6 לטיוטת ההנחיה מובהר שכאשר "שימוש במידע אישי במערכת בינה מלאכותית הוא בעל פוטנציאל לסיכון גבוה לפרטיות אז בהתאם להוראות סעיף 20(ב) לחוק, הנטל על המשתמש במערכת זו אשר יבקש לטעון לקיומה של הגנת תום לב, או לקיומו של עניין לציבור הפוטרים אותו מאחראיות לפגיעה בפרטיות לפי סעיף 18 לחוק – יהיה גבוה יותר."
השילוב בין הדיון בבסיס החוקי לעיבוד מידע אישי לבין הדיון בנטל המוטל על הטוען לאחת מן ההגנות הקבועות בחוק הגנת הפרטיות, טומן בחובו סכנה לבלבול בין בסיס חוקי לבין הגנה. הבסיס החוקי היחיד הקיים היום בחוק הגנת הפרטיות הוא הסכמת נושא המידע במקרה של פגיעה בפרטיות.כך, למשל, בסעיף 7.5.1 בטיוטת ההנחייה נאמר "עיבוד המסתמך על הגנות סעיף 18". הפוגע בפרטיות יכול לטעון לאחת מההגנות הקבועות בחוק הגנת הפרטיות, אולם זאת רק במסגרת הליך פלילי, אזרחי או מינהלי. ראוי לא לקשור בין הבסיס החוקי לעיבוד לבין הגנות כגון תום לב או עניין לציבור שלא ראוי להישען עליהן מראש כמצדיקים עיבוד מידע. זאת בניגוד ל – GDPR המפרט רשימת בסיסים חוקיים לעיבוד מידע אישי לצד הסכמת נושא המידע,סעיפים 6(1) ו 9(2) ל Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (Text with EEA relevance) (OJ L 119 04.05.2016, p. 1, ELI: http://data.europa.eu/eli/reg/2016/679/oj) ) (להלן: "GDPR"). ושהצעתנו לתיקון דומה בחוק הגנת הפרטיות נדחו.ראו, למשל, רחל ארידור הרשקוביץ ותהילה שוורץ אלטשולר, חוות דעת בנושא הצעת חוק הגנת הפרטיות (תיקון 14), התשפ"ב – 2022 0 הצעה להוספת סעיפים הכרחיים בנוגע לעיבוד מידע אישי ומידע בעל רגישות מיוחדת, המכון הישראלי לדמוקרטיה (בדצמבר, 2023).
לאחר תיקון 13, חוק הגנת הפרטיות מתייחס למטרת העיבוד ולצורך בצמידות עיבוד המידע אליה במספר הוראות שונות, שהקשר ביניהן לא לגמרי ברור, הבנתן מורכבת והציות להן עשוי להיות מאתגר:
האחת, בס' 2(9) האוסר על שימוש ב"ידיעה על ענייניו הפרטיים של אדם" שלא "למטרה לשמה נמסרה". השנייה, ס' 11 לחוק הגנת הפרטיות המחייב את יידוע נושא המידע באשר "למטרה אשר לשמה מבוקש המידע". צמידות המטרה לפי סעיפים אלו רלוונטית לנסיבות בהן המידע האישי נאסף בהסכמת נושא המידע. השלישית, ס' 8(ב), שתוקן בתיקון 13, אוסרת על עיבוד מידע אישי ממאגר מידע שלא "למטרת המאגר שנקבעה לו כדין".
עם זאת, עיקרון צמידות המטרה הוא ארכאי ואינו מתאים למציאות עיבודי המידע הדיגיטליים הנוכחיים. לעומתו, דרישת הגבלת מטרה ברוח ה-GDPR,פרוטוקול מס' 298 מישיבת ועדת החוקה, חוק ומשפט, יום שלישי, ט"ז באדר ב התשפ"ד (26 במרץ 2024), עמ' 25-28. מאפשרת גמישות בעיבוד המידע המתאימה לעידן המודרני. דרישה זו מכירה בכך שבעל השליטה במאגר המידע אינו יודע מראש, עם איסוף המידע או הקמת מאגר המידע, את מכלול המטרות לשמן יוכל לעבד מידע אישי. חוסר ידיעה שיחמיר עוד יותר עם התגברות השימוש בבינה מלאכותית. אולם, ניסיונות שלנו ושל אחרים, במהלך הדיונים בכנסת ה-25 על תיקון 13 לחוק הגנת הפרטיות, להחליף את עיקרון צמידות המטרה בעיקרון הגבלת מטרה בדומה לזה המקובל ב-GDPR, נכשלו.
על רקע זה, לשון סעיף 6.3.4 בטיוטת ההנחיה מעוררת תהיות. הרשות להגנת הפרטיות מבקשת להבהיר שלשיטתה סטנדרט היידוע מחמיר יותר כאשר מטרות השימוש "חורגות מציפייתו הסבירה של נושא המידע או מן המטרה העיקרית לשמה התקשר עם בעל השליטה במאגר המידע". אולם, כפי שהוסבר לעיל, עיקרון צמידות המטרה שבחוק הגנת הפרטיות, אינו מביא בחשבון את רעיון המטרה העיקרית או מטרות שעומדות בציפיתו הסבירה של נושא המידע. לפי חוק הגנת הפרטיות, על בעל שליטה במאגר מידע לנסח את כל המטרות שהוא מעלה על רוחו כמטרות שימוש אפשריות. לפי חוק הגנת הפרטיות, לא ניתן היום לעבד מידע למטרה נמסרה לנושא המידע בעת איסוף המידע האישי אודותיו, שנושא המידע לא יודע לגביה או שלא נרשמה במסמך מטרות המאגר. אין חשיבות לציפייתו הסבירה של נושא המידע או לקשר של המטרה הנוספת למטרה העיקרית.
לעמדת הרשות להגנת הפרטיות, כפי שבאה לידי ביטוי בסעיף 6.3.4, "ככל שמטרות השימוש מורכבות יותר, או חורגות מציפייתו הסבירה של נושא המידע או מן המטרה העיקרית לשמה התקשר עם בעל השליטה במאגר, לרבות מערכות בינה מלאכותית כללית", אזי נדרשת הסכמה מפורשת של נושא המידע בפורמט opt-in. בנוסף, לפי 6.3.5 בטיוטת ההנחיה, מערכות בינה מלאכותית אינן יכולות לעשות שימוש במידע שנושא המידע פרסם על עצמו ברשת חברתית, או במידע הזמין ברשת האינטרנט. זאת משום שלשיטת הרשות לא ניתן להסיק הסכמה מדעת לעיבוד המידע מעצם פרסום המידע באופן זמין ופתוח ברשת האינטרנט. לדעת הרשות, לא ניתן להניח שלנושא המידע היתה ציפייה סבירה לשימושים המורכבים שעשויים להתבצע באמצעות מערכות בינה מלאכותית ולסכנות הטמונות בהם. משמעות קביעה זו היא שינוי דרישת ההסכמה וביטול ההכרה בהסכמה מכללא. יתרה מכך, המשמעות האופרטיבית בהקשר הישראלי עלולה להיות הימנעות משימוש במידע ישראלי לצורך אימון מודלים גלובליים באופן שיהפוך אותם לבלתי מייצגים, מוטים, לא מדויקים ואולי אף מוטים ומפלים ביחס לאוכלוסייה בישראל. כך, לצד הימנעות הרשות להגנת הפרטיות מלעגן בסיסים חוקיים נוספים לעיבוד מידע לבד מהסכמה בתיקון 13, היא מחמירה את דרישת ההסכמה והופכת אותה לכמעט בלתי אפשרית להשגה. והכל ללא תימוכין בחוק. בהיעדר בסיסים חוקיים אחרים לבד מהסכמה, עלול שינוי זה של דרישת ההסכמה לשתק לחלוטין את החדשנות בתחום הבינה המלאכותית בישראל וליצור הטיה לרעת ישראל במודלים שיפותחו במדינות אחרות. זאת לצד מתן סמכות עוצמתית לרשות להגנת הפרטיות, שלא היתה בכוונת המחוקק לתת לה, וללא בחינה מעמיקה של השלכותיה. ודוק, נושא ה scrapping הוצג מספר פעמים בדיוני וועדת החוקה שעסקו בתיקון 13, ומעולם לא הוסכם שם על פרשנות כפי שמוצגת בטיוטת ההנחיה.פרוטוקול מס' 233 מישיבת ועדת החוקה, חוק ומשפט, יום ראשון, י"T בשבט התשפ"ד (21 בינואר 2024); פרוטוקול מס' 298 מישיבת ועדת החוקה, חוק ומשפט, יום שלישי, ט"ז באדר ב התשפ"ד (26 במרץ 2024); פרוטוקול מס' 210 מישיבת ועדת החוקה, חוק ומשפט, יום שלישי, י"ד בטבת התשפ"ד (26 בדצמבר 2023).
יתרה מכך, על בסיס הקביעה כי אין להכיר בהסכמה מכללא בהקשר של כריית מידע מרשת האינטרנט על ידי מערכות בינה מלאכותית, גוזרת הרשות להגנת הפרטיות חובה נוספת המוטלת על בעלי שליטה במאגרי מידע המאפשרים שיתוף מידע אישי ברשת האינטרנט. על האחרונים לנקוט אמצעים נאותים כדי למנוע כריית מידע אסורה.ראו סעיף 10 לטיוטת ההנחייה. בהיעדר בסיס חוקי לעיבוד מידע אישי, חובה זו הופכת לחובה מעורפלת ולא בהכרח ישימה. זאת על אף שהפרתה עשויה להוביל את הרשות להגנת הפרטיות לפתוח בהליכי אכיפה וענישה מינהלים בהתאם לסמכויות המוענקות לה בתיקון 13. יתרה מכך, היא עשויה לחזק את שליטתן הבלעדית של פלטפורמות חברתיות במידע אישי של משתמשי הפלטפורמה.
נוכח השלכות הוראות סעיפים 6.3.4-5 לטיוטת ההנחיה, יש לדעתנו לבחון הוראות אלו מחדש. יתכן וראוי לשלב בסעיף 6.3.5 דוגמאות לשיקולים שאפשר לשקול כדי להבין את גדר ציפיותיו הסבירות של אדם המפרסם מידע על אודותיו באופן פומבי לציבור. עם זאת, לא יהיה בכך כדי לפתור את הקושי לשלב הוראות אלו עם לשון חוק הגנת הפרטיות ביחס לעיקרון צמידות המטרה.
כאמור בפתח הדברים, טיוטת ההנחיה עוסקת בנושא חשוב ומורכב של אסדרת הגנת הפרטיות במידע המעובד על ידי מערכות בינה מלאכותית. אסדרה זו ראויה אך יש לעשותה מתוך הבנה ניואנסית יותר של מאפייניה הייחודיים של בינה מלאכותית, העמקה בחידושים שהיא מביאה איתה ביחס להגדרות ואבחנות קיימות בחקיקה ובפסיקה, ושקילה של ההשלכות האפשריות של אפיקי אסדרה חדשים.
בנוסף לכך, כפי שהדגשנו במשך דיוני וועדת החוקה בתיקון 13, מוצע לחוקק תיקון לדין המהותי בחוק הגנת הפרטיות. בתיקון כאמור ראוי, בין השאר, להחליש את דרישת ההסכמה על ידי הוספת זכות חזרה מהסכמה והוספת בסיסים חוקיים אחרים לעיבוד מידע אישי. טיוטת ההנחיה מנסה לבצע שינוי רגולטורי ללא תיקון בחקיקה הראשית והדבר יוצר בעיית סמכות.