אילוסטרציה: רגולציה על בריאות ובינה מלאכותית (עיבוד: תמר מצפי ושאטרסטוק)
אסתי שלי. "יש פה לא מעט אתגרים" | עיבוד: תמר מצפי ושאטרסטוק

מערכות בינה מלאכותית נכנסת במהירות לעולמות הבריאות, משפיעות ישירות על קבלת ההחלטות של רופאים: הן מייעצות לרופאי משפחה אילו טיפולים ותרופות יש לתת למטופלים, מעניקות עדיפות גבוהה לחולים מסוימים בבתי חולים, מפנות את תשומת הלב של הרופאים לבעיות שהתגלו בסריקות ואפילו מסייעות לבחור עוברים בתהליכי הפריית מבחנה. המלצות AI לרופאים משפיעות על החלטות של חיים או מוות, וכל זה מבלי שיש גורם כלשהו שמפקח על אימוץ הטכנולוגיות ואמינותן.

כעת, משרד הבריאות מקדם רגולציה של בינה מלאכותית בתחום הבריאות, שנועדה להתמודד עם הסיכונים הכרוכים בהסתמכות על בינה מלאכותית בקבלת החלטות רפואיות. המשרד פרסם קול קורא לקבלת עמדות מהתעשייה וממערכת הבריאות לגבי מסמך "עקרונות מנחים לפיתוח טכנולוגיות מבוססות למידת מכונה" שהכין המשרד. כעת נלמדות התגובות שהתקבלו. במסמך מפורטים עקרונות שנועדו לכוון את מפתחי ה-AI אך לא לפקח בפועל על המערכות ועל השימוש בהן.

אסתי שלי, מנהלת אגף בריאות דיגיטלית במשרד הבריאות: "משרד הבריאות הוא אחד המשרדים הראשונים שמתחיל לעסוק בבינה מלאכותית ולמידת מכונה ומעוניין להבין איך זה ישפיע על שירותי הבריאות. יש פה לא מעט אתגרים"

גישה זו נתמכת על ידי בתי החולים, קופות החולים וחברות מסחריות, שלא מעוניינים להידרש לרישוי המערכות. מנגד היא גוררת ביקורת מצד גורמי הגנת פרטיות וזכויות החולים, שטוענים שנדרשת רגולציה שתבחין בין דרגות סיכון שונות של המערכות, ותתאים לכל מקרה את מידת ההתערבות הרגולטורית. במשרד הבריאות מגיבים: זהו רק שלב ראשון ובהמשך תבוא רגולציה מותאמת לסיכונים.

"10 עקרונות להתנהלות טובה בלימוד מכונה"

לקול הקורא של משרד הבריאות מצורפת טיוטת עקרונות מנחים, שמבוססת על מסמכים של ה-FDA בארה"ב, והרשויות המקבילות בקנדה ובבריטניה. מדובר בעשרה עקרונות "להתנהלות טובה בתחום לימוד מכונה" (GMLP). למשל שילוב מומחיות רב-תחומית וגיוון אנושי בעת הפיתוח וגם לאורך השימוש במכשיר; ייצוג ראוי של אוכלוסיית היעד במסגרת המחקר הקליני של השימוש במכשיר; התמקדות בשיפור שיתוף הפעולה אדם-בינה מלאכותית במקרים של human-in-the-loop (כלומר, כשיש אדם מעורב בתהליך, לא AI שמקבל החלטות לבד); שיפור האמון של המשתמשים במודל ה-AI ועוד.

"משרד הבריאות הישראלי מתכוון לאמץ עקרונות אלו כקו מנחה במטרה לסייע לגורמים העוסקים בפיתוח טכנולוגיות המבוססות על לימוד מכונה (AI/ML), וזאת על ידי התאמת שיטות עבודה טובות שהוכחו במגזרים אחרים והתאמתן כך שיהיו ישימות לטכנולוגיה רפואית ולמגזר הבריאות", נאמר במסמך.

אסתי שלי, מנהלת אגף בריאות דיגיטלית במשרד הבריאות, אומרת שהמסמך שפורסם הוא טיוטה בלבד, שיעבור שינויים והתאמות בהתאם לתגובות שהתקבלו. "משרד הבריאות הוא אחד המשרדים הראשונים שמתחיל לעסוק בבינה מלאכותית ולמידת מכונה ומעוניין להבין איך זה ישפיע על שירותי הבריאות", אומרת שלי, "יש פה לא מעט אתגרים".

רפואה דיגיטלית (צילום: shutterstock by PopTika)
רפואה מבוססת בינה מלאכותית, אילוסטרציה. "מסמך אתיקה היה נחמד ל-2017 אבל לא מתאים ל-2023" | צילום: shutterstock by PopTika

אחד האתגרים האלה הוא מערכות שפותחו במדינות אחרות, וההתלבטות איזו השפעה יכולה להיות לרגולטור הישראלי עליהן. "זה אתגר שלא רק ישראל מתמודדת איתו אלא גם רשויות רגולטוריות אחרות בעולם", אומרת שלי. "אנחנו רוצים להתחיל לייצר עקרונות מנחים, ובהמשך גם רגולציה מחייבת שתהיה בהלימה גם עם רגולציה בינלאומית. אנחנו בקשר ישיר ורציף עם רשויות בעולם כדי להבטיח שישראל תהיה מהמובילות בעולם אבל שאנחנו לא נמציא לעצמנו רגולציה ייחודית שדורשת התאמות ושינויים ייחודיים לישראל".

במכון הישראלי לדמוקרטיה סבורים שהיוזמה של משרד הבריאות באה מאוחר מדי, והיא מציעה מעט מדי. במסמך תגובה של המכון לטיוטת משרד הבריאות נכתב בין השאר: "לאור ההתפתחות המהירה והעצומה של מערכות לומדות בשנה האחרונה, לא ניתן להסתפק בעקרונות כלליים, רכים וחסרי יכולת אכיפה, ויש צורך להתחיל להניח את היסודות לאסדרה של התחום".

ד"ר תהילה שוורץ אלטשולר, ראש התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה וממחברות מסמך התגובה, אומרת: "מסמך אתיקה היה נחמד ל-2017 אבל לא מתאים ל-2023. עכשיו אנחנו ברגולציה באירופה ובעוד מקומות".

תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה: "צריך להבין מה המערכת עושה והאם היא עלולה להרוג או לא. זה לא כמו רישום של תרופה או מכונה רפואית. מדובר במערכת לומדת, שמתפתחת כל הזמן, וצריך לעשות עליה ניטור כל הזמן"

לדבריה, משרד הבריאות צריך ליצור רישוי לפי דרגות סיכון, לאשר במהירות מערכות פחות מסוכנות ובקפדנות מערכות שעלולות לגרום נזק פיזי. "צריך להבין מה המערכת עושה והאם היא עלולה להרוג או לא. זה לא כמו רישום של תרופה או מכונה רפואית. מדובר במערכת לומדת, שמתפתחת כל הזמן, וצריך לעשות עליה ניטור כל הזמן".

האם משרד הבריאות מתכוון לבחון את האלגוריתם, איך הוא עובד, איך הוא משפיע על קבלת ההחלטות?
שלי: "אנחנו מדברים על מכשור רפואי מבוסס תוכנה. השאלה היא באילו מצבים עושים שימוש באלגוריתם ואילו החלטות מקבלים על סמך התוצאות. ככל שמתקבלות באמצעותו החלטות קליניות משמעותיות יותר, אז כן, בוודאי, וזו גם הגישה בעולם. אנחנו מתייחסים מבחינה רגולטורית לאלגוריתם כמוצר רפואי לכל דבר ועניין, כמו שמתייחסים לתרופה".

בשלב הבא מתכוונים במשרד הבריאות להכין נוסח מעודכן של מסמך העקרונות, על בסיס ההערות שהתקבלו, לפרסם אותו ולקבל הערות לגביו. שלי מסבירה: "בשלבים הבאים אנחנו נבנה רגולציה שמתייחסת לבינה מלאכותית ול-best practices. חשוב לנו לעשות את זה בצורה חכמה וזהירה, אבל גם לא לעצור את כל ההתפתחות הטכנולוגית ולהגיד שכולם ימתינו. בצורה הדרגתית נכניס עוד ועוד חלקים פנימה, נוסיף קווים מנחים כדי לעזור למי שמפתח כלים וטכנולוגיות. מצד אחד אני נותנת דגש לניהול סיכונים ריאלי ומצד שני אני נותנת כלים למפוקחים לעמוד בדרישות הרגולציה".