ההיסטוריה האנושית מלמדת אותנו כי טעויות רפואיות חורצות גורלות וחיי אדם. מחלקת הבריאות ושירותי האנוש בארה"ב מעריכה כי טעויות אלה עולות בחייהם של יותר מ-200 אלף איש בשנה. בעוד מודלי בינה מלאכותית מעורבים יותר ויותר בקבלת החלטות רפואיות יום-יומיות, עולה התקווה כי שילובם באבחון, טיפול ומעקב אחר חולים יצמצם את שיעור הטעויות. עם זאת קיימת חשדנות מוצדקת כלפיהם, שכן קיים עדיין קושי רב להבין כיצד בדיוק הם מגיעים להחלטות ועל סמך מה ניתנות ההמלצות הרפואיות.
הדרישה לשקיפות בתהליך קבלת ההחלטות של המודלים מתחזקת ככל שנשמעים יותר מקרים של תקלות, אי-דיוקים בהתוויות רפואיות, ומתן אבחונים והנחיות רפואיות שגויות. הטיית החלטות על פי מגדר וגזע מערערת אף יותר את אמינות המודלים בעיני מטפלים ומטופלים כאחד.
הסוגיה של "מודל בר-הסבר" (Explainable AI – XAI) נמצאת היום במוקד הדיונים בכל הקשור ליישום מודלי בינה מלאכותית בתחום הרפואה, שכן השימוש במודלים של "קופסה שחורה" הולך ועולה. מודלים אלו אמנם מציגים ביצועים מרשימים יותר לעומת מודלים פשוטים הניתנים לפרשנות ישירה ("קופסא לבנה") אך הם אינם מאפשרים להבין את תהליך קבלת ההחלטות הפנימי של המודל. ככלל, מודלים בני הסבר הופכים את תהליך קבלת ההחלטות לברור, מובן ומהיר. במילים אחרות, הם מסירים את אי הבהירות ואי-השקיפות המאפיינות קופסאות שחורות ומספקים למקבלי ההחלטות האנושיים שליטה מלאה וישירה במנגנון ההחלטה.
במחקר שפורסם לאחרונה ב-Scientific Reports, חוקרים טוענים כי מודלי בינה מלאכותית מבוססי רשתות עצביות עמוקות (DNNs) עושים טעויות שונות, שבני אדם נוטים לעשות פחות באבחונים רפואיים המבוססים על הדמיות. החוקרים משערים שהדבר נובע מכך שרופאים ומודלי בינה מלאכותית מנתחים הדמיות בצורה שונה. לפי החוקרים, מודלי חיזוי של בינה מלאכותית לא תמיד לוקחים בחשבון את הקונטקסט והפתולוגיה של המצב שאותו הם נועדו לאבחן, בעוד שמאבחן האנושי משתמש בידע רפואי נרחב שצבר לאורך שנים. לדוגמה, ללא הקונטקסט הנכון - בינה מלאכותית יכולה לקשר סימונים שמבצעים לפני ניתוח על העור עם מלנומה ממאירה, דבר שלפי החוקרים מעלה את שיעור האבחונים החיובים השגויים ב-40%.
יכולת ההסבר חשובה על מנת שרופאים ומטופלים יוכלו לבטוח במודלים של AI. בעוד מחקרים ודוחות שונים מציגים כיצד מודלים של AI מציגים הטיות בקבלת החלטות המבוססות על גזע ומגדר, מתבקש כי המודל יבהיר באופן חד משמעי על אילו נתונים ומאפיינים קליניים התקבלה התוצאה ואגב כך להבטיח כי ההחלטות שהתקבלו הינן אתיות ואינן מפלות אוכלוסייה כזאת או אחרת
מחקר זה ודומיו מעלים כי יכולת ההסבר חשובה על מנת שרופאים ומטופלים יוכלו לבטוח במודלים של בינה מלאכותית, ויצרו אמון בתוצרי המודלים. יתרה מכך, בעוד מחקרים ודוחות שונים מציגים כיצד מודלים של בינה מלאכותית מציגים הטיות בקבלת החלטות המבוססות על גזע ומגדר, מתבקש כי המודל יבהיר באופן חד משמעי על אילו נתונים ומאפיינים קליניים נתקבלה התוצאה ואגב כך להבטיח כי ההחלטות שנתקבלו הינן אתיות ואינן מפלות אוכלוסייה כזאת או אחרת. המטפל אינו יכול לקבל את ההחלטות של המודל בצורה עיוורת, ועליו להשתכנע כי החלטות רפואיות אלו התקבלו מתוך מערכת שיקולים רחבה, על סמך הנתונים הרלוונטיים ובקונטקסט הרפואי הנכון.
יש הסבורים כי לא מספיק לספק הסבר לקבלת ההחלטות אלא גם פרשנות ותובנות בנות יישום המאפשרות למטפל להנחות את המטופל לגבי הצעד הבא שיש לבצע כדי להיטיב עם בריאותו. יש לציין כי הרגולציה בענף הבריאות דורשת לספק הסברים והערכת סיכונים לגבי המודלים המיושמים בתחומים השונים.
עם זאת, קיימים אתגרים רבים שיש לצלוח עדיין על מנת להשיג מודל בר הסבר בתחום הרפואה. במאמר שפורסם השנה, חוקרים מהרווארד, MIT, קרנגי מלון ואוניברסיטת דרקסל, גילו שאין התאמה בין הסברים שונים של מודלי בינה מלאכותית, דבר שמצביע על מורכבות החיזוי ועל כך שלא באמת ניתן לדעת מה הסיבה האמתית לחיזוי זה או אחר. יתרה מכך, הם גילו שתחת ההגדרות של העולם האמיתי, רוב האנשים שמשתמשים באלגוריתמים לא יכולים להכריע בין ההסברים השונים, ולכן לעיתים קרובות הם פשוט בוחרים את ההסבר הקרוב ביותר לרעיונות האישיים שלהם.
על מנת לבנות מודל בינה מלאכותית בר הסבר, יש לפתח את יכולת ההסבר כבר משלב בחירת המודל והבניה שלו, שכן קיימות מספר שיטות לכך ובחירה נכונה של השיטה המתאימה תלויה בתהליך הפיתוח של המודל. יתר על כן, פיתוח מוקדם של יכולת זו מגדיל את השקיפות והבקרה של המודל בזמן הפיתוח. יתרון נוסף של פיתוח היכולת בשלב מוקדם הוא שילובם של מומחים קליניים בתהליך פיתוח המודל. מומחים אלו יכולים לייעץ בנוגע לסוג המידע שיש לאסוף, להצביע על הטיות או טעויות באיסוף ועיבוד המידע ולציין אילו משתנים קליניים יכולים להיות קריטיים לקבלת החלטות. עם זאת, מאחר שכלי ההסבר הקיימים מורכבים ודורשים חישובים מסובכים וקשים להבנה על ידי הצוות הרפואי, דבר שמוביל פעמים רבות לפירוש שגוי של המודל, חובה לשלב מומחים קליניים גם לאורך פיתוח יכולת ההסבר.
לסיכום, בניית המודל, פיתוח יכולת ההסבר ושילובו בפרקטיקה הקלינית הם תהליכים השזורים זה בזה, שאינם יכולים להתקיים בנפרד, שכן מדובר בתהליך פיתוח מעגלי ורקורסיבי שמפרה את עצמו. לכן, על מנת לאפשר לתהליך זה להתקיים בצורה טבעית, הכרחי לבנות מרכזי מצוינות מולטי-דיציפלינריים שמשלבים מומחיות קלינית עם מומחיות בתחום מדעי הנתונים.
הכותבת: מאיה שווץ, מדענית נתונים בכירה בחברת Data Science Group (DSG)