רכב אוטונומי של מובילאיי בנסיעת מבחן בירושלים (צילום: Esther Katri, שאטרסטוק)
רכב של מובילאיי בנסיעת מבחן בירושלים. הצוות התייעץ גם עם אמנון שעשוע | צילום: Esther Katri, שאטרסטוק

מדינת ישראל תפעיל "רגולציה רכה" בצורת תקינה וולונטרית ורגולציה עצמית על פיתוח בינה מלאכותית ותימנע מחקיקה מגבילה בנושא - כך עולה מטיוטת מדיניות שפירסמו משרד החדשנות, משרד המדע והטכנולוגיה ומשרד המשפטים. זאת בניגוד לחקיקה שמתגבשת באיחוד האירופי, שמכתיבה בדיקות מדוקדקות של כל אלגוריתם כדי לוודא שאינו מסוכן לציבור.

בכתיבת המדיניות התייעצה הוועדה במשרד המדע עם נציגי חברות לפיתוח בינה מלאכותית, בהם פרופ' אמנון שעשוע מנכ"ל מובילאיי ופרופ' יוסי מטיאס, מנכ"ל מרכז המו"פ של גוגל בישראל. נציגי ארגוני הגנת הפרטיות וגופים ציבוריים אחרים לא השתתפו בדיון.

תום דן, המשנה למנכ"לית משרד המדע והחדשנות, שריכז את הצוות הממשלתי יחד עם עו"ד יוסף גדליהו ממחלקת ייעוץ וחקיקה במשרד המשפטים, אומר בשיחה עם tech12: "הגישה שלנו הייתה לבנות נייר שכמה שיותר יעודד את המגזר הפרטי ואת חברות הטכנולוגיה לייצר ולבנות בינה מלאכותית, ולא להיות רגולציה מגבילה. צצות היום כל מיני רגולציות בעולם, למשל החקיקה האירופית שהיא מאוד מגבילה ובעייתית, בדומה ל-GDPR (רגולציית הפרטיות שנכנסה לתוקף ב-2018 - ט"ש). המסמך שלנו קובע שמדינת ישראל לא תבנה רגולציה רוחבית כללית חוקית כמו שהאירופאים מקדמים, אלא תנקוט בעמדה לא מחייבת כמו בגישה האמריקאית".

הרגולציה המוצעת תתבסס על כלים לניהול סיכונים ותפותח באופן מודולרי. היא מבוססת על כיבוד זכויות יסוד ואינטרסים ציבוריים, קידום צמיחה, פיתוח בר-קיימא ומובילות ישראלית בחדשנות, שוויון ומניעת אפליה פסולה, שקיפות והסברתיות, אמינות, עמידות, אבטחה, בטיחות ואחריותיות

הרגולציה המוצעת תתבסס על כלים לניהול סיכונים, תיעשה תוך שימוש בכלי רגולציה "רכים" ותפותח באופן מודולרי תוך שימוש בכלי נסיינות רגולטורית ("ארגזי חול"). היא מבוססת על העקרונות האלה: האדם במרכז – כיבוד זכויות יסוד ואינטרסים ציבוריים, קידום צמיחה, פיתוח בר-קיימא ומובילות ישראלית בחדשנות, שוויון ומניעת אפליה פסולה, שקיפות והסברתיות, אמינות, עמידות, אבטחה, בטיחות ואחריותיות.

מתח בין רמת הסיכון להגבלת חדשנות

בעולם מתנהל ויכוח ער בין התומכים ברגולציה קפדנית על אלגוריתמים של בינה מלאכותית לבין אלה שטוענים שהדבר מעכב ומגביל חדשנות. באיחוד האירופי מקדמים כבר כמה שנים את חקיקת החוק לבינה מלאכותית הוגנת. החקיקה מגדירה דרגות סיכון של בינה מלאכותית: סיכון מינימלי, סיכון מוגבל, סיכון גבוה (למשל AI שמסננת מועמדים לעבודה או מערכות דירוג אשראי) וסיכון בלתי קביל (unacceptable), למשל מערכות לסיווג חברתי כמו בסין שייאסרו לחלוטין.

ארגוני זכויות אדם טוענים שהכללים האלה אינם חמורים ואילו נציגי התעשייה מזהירים שהם יגרמו לחברות להעביר את הפיתוח מחוץ לאירופה. אפילו סין פירסמה קווים מנחים אתיים לפיקוח על טכנולוגיית AI שהדגש בהם הוא הגנה על זכויות פרטיות המשתמשים וגם החמרת הפיקוח על חברות טכנולוגיה.

בכתיבת המסמך השתתפו נציגי מחלקת ייעוץ וחקיקה במשרד המשפטים ובפרט עו"ד ד"ר יובל רויטמן, ראש אשכול רגולציה, ועו"ד יוסף גדליהו - לצד היועץ המשפטי של משרד המדע, עו"ד דני חורין. בנוסף, לדברי דן, ההמלצות הישראליות גובשו בהתייעצות עם ה-OECD, מכון התקנים האמריקאי (NIST) והבית הלבן, שכל אחד מהם גיבש הנחיות משלו בנושא הבינה המלאכותית. הצוות הישראלי מציע שישראל תפתח אמות מידה לרגולטורים ממשלתיים, והם אלה שיקבעו את ההנחיות והחוקים הנדרשים, כל אחד בתחומו. כמו כן יוקם מוקד ידע ממשלתי שיסייע לכל משרדי הממשלה ברגולציה.

"לכל תחום יש דברים ייחודיים לו", אומר דן, "במשרד הבריאות יש שאלות של המלצות AI לרופא ומי אשם אם הרופא טעה, בעולמות התחבורה יש שאלה מי אחראי אם האלגוריתם גרם לתאונה. במשרד הרווחה יש הרבה סכנות, למשל אם כלי AI צריך לקבוע איזה ילד נמצא במצוקה. מוקד הידע הממשלתי ייתן תמיכה לכל הרגולטורים, ויהיו לו תקציבים".

תום דן, משנה למנכל"ית משרד החדשנות (צילום: שלומי אמסלם, לע״מ, יחצ)
תום דן. "לכל תחום יש דברים ייחודיים לו" | צילום: שלומי אמסלם, לע״מ, יחצ

דן אומר שנציגי התעשייה תמכו בגישה זו. "יוסי מטיאס מגוגל אמר לנו – 'אנחנו רוצים לדעת מה האמירה של ישראל בנושא הזה, כדי לדעת איך להתמודד עם זה'. אמנון שעשוע אמר: 'מובילאיי לא נכנסת למדינות שבהן אין לממשלה אמירה ברורה על בינה מלאכותית'. לי זה מאוד עזר לסדר את החשיבה".

לדבריו, כעת המסמך פתוח לקבלת עמדות הציבור, וכמו כן הוא נשלח לחברות כמו NVIDIA, אמזון AWS, גוגל, מיקרוסופט וחברות סטארט אפ. "המטרה היא לעשות שולחן עגול בקרוב ולקבל פידבק יותר נקודתי. אנחנו רוצים שגורמי פרטיות וגורמי זכויות אדם, עמותות ואזרחים פרטיים - שכולם יגיבו".

בעבר כבר הוגשו המלצות בנושא הגינות בינה מלאכותית על ידי צוות משנה של "המיזם הלאומי למערכות נבונות בטוחות" (ועדת בן ישראל) שהוגשו לפני כשנתיים. ראש הצוות הייתה פרופ' קרין נהון, ראשת התוכנית לדאטה, ממשל ודמוקרטיה באוניברסיטת רייכמן. הצוות המליץ על שילוב שיקולים אתיים בשלבי הפיתוח והתחזוקה של מערכות AI, על בניית תוכניות הכשרה לאתיקה של מפתחי AI ועל שורה של עקרונות אתיים למפתחי AI.

עו"ד עמית אשכנזי, היועץ המשפטי של מערך הסייבר לשעבר: "עכשיו זה השלב שבו החברה האזרחית צריכה להעיר את הערותיה. צריך לשים נייר על השולחן ולשמוע מה אנשים אומרים ואז יש לך תפיסה יותר עשירה של איפה יושב האינטרס הציבורי בישראל"

עו"ד עמית אשכנזי, עד לאחרונה היועץ המשפטי של מערך הסייבר, ומי שהיה חבר בצוות נהון, השתתף בניסוח ההמלצות הנוכחיות כיועץ למשרד המדע. לדבריו, האיזון בין הגנה על הציבור לבין הקלה על פיתוח הטכנולוגיה צריך להיקבע בדיון פתוח: "בצוות של נהון רצינו שלטכנולוגיה של ישראל יהיה מוניטין של אמינות אבל כאן היה צריך להתניע את הכניסה של הממשלה לנושא. רוב הדיון היה על תיאום בתוך הממשלה כדי להגיד מה הממשלה חושבת, ועכשיו זה השלב שבו החברה האזרחית צריכה להעיר את הערותיה. צריך לשים נייר על השולחן ולשמוע מה אנשים אומרים ואז יש לך תפיסה יותר עשירה של איפה יושב האינטרס הציבורי בישראל".

בכתיבת המסמך השתתפו כאמור נציגי מחלקת ייעוץ וחקיקה במשרד המשפטים, ולדברי דן "זה נותן למסמך את התוקף הכי גבוה שיכול להינתן למסמך רגולציה ממשלתי. זה תיקוף לא משפטי אבל רגולטורי ישים". המסמך כולל סקירה של המצב המשפטי והרגולטורי בהיבטי בינה מלאכותית בישראל, בחינה של סוגיות כמו חשש לאפליה, דרישה למעורבות אנושית, חשיבות של אמינות ושקיפות ועוד.

במסמך מוצגים קווים מנחים למדיניות רגולציה ואתיקה לתחום הבינה המלאכותית, כולל הצעה לעקרונות אתיים לתחום הבינה המלאכותית, וכן לעקרונות למדיניות רגולציה לתחום זה. בחודש יולי השנה הוצגה התוכנית הלאומית לבינה מלאכותית של משרד החדשנות, המדע והטכנולוגיה, עם תקציב מוצע של כ-2 מיליארד שקל, שההמלצות הנוכחיות הן חלק ממנה.

שרת החדשנות, המדע והטכנולוגיה אורית פרקש הכהן מסרה עם פרסום הטיוטה: "עקרונות המדיניות מביאים לידי ביטוי את התפיסה בה אני תומכת של 'חדשנות אחראית'. איזון בין הצורך להגן על הפרט מול האתגרים הנובעים משימוש בטכנולוגיית הבינה המלאכותית לבין האינטרס הציבורי בקידום התפתחותה של טכנולוגיה זו, ואינטרס השמירה על סביבה מאפשרת לתעשיית ההייטק והמחקר הישראליים בתחומים אלה. פרסום המדיניות יקדם את דירוג ישראל בתחום הבינה המלאכותית, ויסמן חץ מכוון לערכים שלאורם טכנולוגיה זו תפעל".

המשנה ליועצת המשפטית לממשלה עו"ד מאיר לוין מסר עם פרסום הטיוטה: "התפתחות הבינה המלאכותית מביאה עמה הזדמנויות רבות, והמשק הישראלי ניצב בחזית התפתחות זו. לקידום מנגנוני רגולציה ואתיקה יעילים תפקיד משמעותי בסלילת הדרך להתפתחות הבינה המלאכותית בישראל, תוך הסרת חסמים רגולטוריים ומשפטיים מצד אחד, והגנה על זכויות יסוד ואינטרסים ציבוריים מצד שני. טיוטת המדיניות מכוונת למסגרת רגולטורית מעודדת חדשנות ומתואמת, פרופורציונלית ודיפרנציאלית, גמישה ומתקדמת, צופה פני עתיד ומתחשבת בהתפתחויות מרכזיות בעולם".