ביום 30 באוקטובר 2022 פרסם משרד החדשנות, המדע והטכנולוגיה מסמך "עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית" להערות הציבור (להלן: "מסמך העקרונות").
טיוטת מסמך העקרונות הינה צעד ראשון לאימוץ של מסגרת כללית ורוחבית, ברמה על מגזרית, להסדרת השימוש בטכנולוגיות של בינה מלאכותית ולמידת מכונה במשק הישראלי. תחילה, המסמך מכיל סקירה בסיסית של הטכנולוגיה, האתגרים שהיא מציבה בפני מערכות משפטיות ורגולטורית והפתרונות המוצעים להתמודדות עם אתגרים אלו ברחבי העולם. לאחר מכן, המסמך מתווה עקרונות מוצעים למדיניות ממשלתית אחידה בתחום זה.
בהתאם למפורט במסמך העקרונות, השימוש בטכנולוגיות של בינה מלאכותית ולמידת מכונה מעורר סיכונים וחששות שונים, הנובעים הן מהמאפיינים הטבועים של טכנולוגיות אלו והן מכך שמדובר בטכנולוגיות המטשטשות את הקווים שבין האדם ובין המכונה. בין היתר במסמך נסקרים הסיכונים הבאים: שאלות הנוגעות לשוויון, אפליה ושימוש לרעה בטכנולוגיות אלו; המקום של מעורבות אנושית בתהליכי קבלת החלטות מבוססי בינה מלאכותית; הצורך בהבטחת שקיפות, גילוי ו"הסברה" (explainability) בעת יישומן; ואתגרי פרטיות ואבטחת מידע הנלווים לשימוש בטכנולוגיות אלו.
בהתאם למוצע במסמך העקרונות, האסדרה בישראל תהיה מבוססת על עקרונות רוחביים וכלל ממשלתיים שאינם מחייבים משפטית, בעוד היישום הפרטני והמחייב יעשה בשורה של הנחיות ורגולציות נקודתיות ומגזריות שיפרסמו הרגולטורים השונים, כל אחד בתחומו (למשל, משרד הבריאות יפרסם כללים והנחיות לשימוש בטכנולוגיות אלו בתחום הרפואה, בעוד הפיקוח על הביטוח יסדיר את השימוש בטכנולוגיות אלו בעולמות הביטוח וכו'). גישה זו נבדלת מהגישה המסתמנת כיום באירופה במסגרת טיוטת של ה- EU AI Act, המציעה כללים והסדרים מפורטים ומעשיים שתחולתם רוחבית וחוצה מגזרים ותחומי פעילות. מסמך העקרונות מסביר כי הבחירה בגישה זו נובעת מההבנה שהיישום והשימוש בטכנולוגיות אלו משתנים בין תחום לתחום, ובהתאם גם המענה הנגזר לסיכונים הגלומים בכך צריך להתאים למאפייניו הייחודיים של כל תחום פעילות.
בהקשר זה, אנו סבורים שהגישה המבוטאת במסמך העקרונות נכונה ועדיפה על זו המסתמנת באירופה. מעבר ליתרונות הברורים שיש לאסדרה נקודתית ומותאמת נסיבות, אסדרה רוחבית וכללית עלולה להציב גבולות נוקשים ושרירותיים שיקשו על פיתוחן של טכנולוגיות חדשות של בינה מלאכותית ולמידת מכונה, בדגש על שלבי המחקר והפיתוח. שלבים אלו מאופיינים בביצוע מניפולציות רבות ונרחבות על מידע תוך ניסוי וטעיה, ומטבע הדברים, יש לשמור על הגמישות והחופש לעשות כן על מנת לאפשר את המשך ההתפתחות של טכנולוגיות אלו, תוך הותרת האסדרה הפרטנית והמחייבת לשלבי היישום והמימוש בתחומים השונים.
העקרונות המוצעים במסמך להפעלת טכנולוגיות בינה מלאכותית ולמידת מכונה מתכתבים עם המוכר והמקובל בתחום בעולם, לרבות כללי ה- OECD, טיוטת הרגולציה האמורה באירופה ומסמכי המדיניות בנושא שפורסמו בארה"ב וב- UK. העקרונות מבקשים להבטיח כי הרגולציה בתחום תהיה מבוססת על תהליכים של זיהוי וניהול סיכונים, באופן המתאים את הרגולציה והמגבלות הקבועות בה, לסיכונים הקונקרטיים ורמת הסיכון המשתקפת בכל תחום פעילות. זאת, בדומה לגישת ניהול הסיכונים הטבועה ב- EI AI Act כמו גם ב- GDPR.
ברמה הפרטנית, טיוטת המסמך מונה מספר עקרונות מוצעים לפיתוחן והפעלתן של טכנולוגיות של בינה מלאכותית ולמידת מכונה:
- בינה מלאכותית לקידום צמיחה, פיתוח בר-קיימא ומובילות ישראלית בחדשנות;
- האדם במרכז – כיבוד זכויות יסוד ואינטרסים ציבוריים;
- שוויון ומניעת אפליה אסורה;
- שקיפות והסברתיות;
- אמינות, עמידות, אבטחה ובטיחות;
- אחריותיות (Accountability).
אנו מוצאים עקרונות אלו כבסיס נכון ומספק לרגולציות עתידיות בנושא. כמשרד המלווה לקוחות רבים המפתחים מערכות ומוצרים מבוססי AI/ML בשלל תחומים, אנו מודעים לאתגרים הרבים בהם נתקלים לקוחותינו, וככל ומסמך העקרונות המוצע יוביל להבהרת המצב החוקי והבהירות, תוך הותרת מקום וגמישות לפיתוחן של מערכות אלו, אנו בוודאי נברך על כך.
הציבור הוזמן לשלוח את התייחסויותיו לטיוטת מסמך העקרונות עד לתאריך 1 בינואר 2023, וגם אנו בעמית, פולק, מטלון ושות' מתכננים להגיש את התייחסותנו בהתאם לאתגרים המוכרים לנו היטב מהעבודה מול לקוחותינו.
תכליתו של עדכון זה להציג חידושים בהנחיות משרד החדשנות, המדע והטכנולוגיה ואין בו משום עצה משפטית לאופן פעולה קונקרטי. אנו נשמח לעמוד לרשותכם בכל שאלה.
צוות APM לרגולציה ולטכנולוגיה.