מרגרט מיטשל עבדה בגוגל שנתיים לפני שהבינה שהיא צריכה הפסקה. "היו לי התמוטטויות עצבים על בסיס קבוע", אומרת מיטשל, שייסדה והובילה במשותף את צוות ה-AI האתי של החברה. "אף פעם לא חוויתי דבר כזה לפני כן". רק אחרי שדיברה עם פסיכולוג הבינה מה הבעיה: היא שחוקה. בסופו של דבר היא לקחה חופשת מחלה מפאת הלחץ.
מיטשל, שעובדת עכשיו כחוקרת AI וכאתיקאית ראשית בסטארט אפ AI בשם Hugging Face, היא ממש לא היחידה שעברה דבר כזה. שחיקה הופכת לתופעה נפוצה יותר ויותר בצוותים העוסקים בתחום ה-AI האחראי, אומר אבהישק גופטה, מייסד מכון מונטריאול לאתיקה ב-AI, ויועץ בתחום ה-AI האחראי ב־Boston Consulting Group.
אתיקאים בתחום ה-AI ועובדים בתחום ה-AI האחראי עוסקים בטווח שבין ניתוח ההשפעות החברתיות של מערכות ה-AI ועד לפיתוח אסטרטגיות ותקנות אחראיות לתיקון בעיות טכניות. לרוב מטילים על העובדים האלה גם למצוא דרכים למזער את נזקי ה-AI שעלולים להיגרם על ידי אלגוריתמים המפיצים דברים שטנה, מערכות שמקצות משאבים כמו דיור וקצבאות באופן מפלה, כלים המפיצים חומרים ויזואליים וטקסטואליים גרפיים ואלימים וכן הלאה.
רגולטורים ואקטיביסטים מפעילים לחץ הולך וגובר על חברות הטכנולוגיה למזער את הנזקים הפוטנציאליים של מוצרי ה-AI שלהם עוד לפני שחרורם. החברות, בתגובה, הקימו צוותים הבוחנים כיצד חיינו, החברות שלנו והמערכות הפוליטיות שלנו מושפעים מהאופן שבו המוצרים האלה מתוכננים, מפותחים ומוטמעים.
אתיקאים ועובדים בתחום ה-AI האחראי עוסקים בטווח שבין ניתוח ההשפעות החברתיות של המערכות ובין פיתוח אסטרטגיות לתיקון בעיות . לרוב הם נדרשים למצוא דרכים למזער נזקים שנגרמים בידי אלגוריתמים שמפיצים דברי שטנה, מערכות שמקצות משאבים באופן מפלה או כלים שמפיצים חומרים אלימים
בתי המשפט מאלצים חברות טכנולוגיה כגון מטא להציע תגמול הולם ותמיכה בריאותית נפשית מוגברת לעובדים כמו מסנני תוכן ברשת, שנאלצים לא אחת לעבור על תכנים גרפיים ואלימים שעלולים להיות טראומתיים בשבילם. עם זאת, עובדים בתחום ה-AI אחראי אמרו ל־MIT Technology Review, שבתחום שלהם עובדים נאלצים לעתים קרובות להתמודד עם מצוקותיהם בגפם, אף על פי שעבודתם עלולה להיות לא פחות מתישה פסיכולוגית מאשר זו של מסנני תוכן ברשת. בסופו של דבר, חברי הצוותים האלה עלולים להרגיש לא מוערכים, והדבר בתורו עלול להזיק לבריאות הנפשית שלהם ולהוביל לשחיקה.
רוּמאן צ'אודהורי, שעומדת בראש צוות האתיקה, השקיפות והאחריותיות בלמידת המכונה של טוויטר, הנחשבת לחלוצה בתחום האתיקה היישומית של ה-AI, נאלצה גם היא להתמודד עם הבעיה הזאת בתפקידה הקודם. "נשחקתי בטירוף בשלב כלשהו. והכל נראה לי די מייאש", היא אומרת.
כל אנשי המקצוע ש־MIT Technology Review שוחח עמם דיברו בהתלהבות על עבודתם: הם מלאים בתשוקה ובתחושת דחיפות ושואבים סיפוק ממציאות פתרונות לבעיות אמיתיות. אבל תחושת המשימה הזאת עלולה להכביד עליהם עד מאוד בלי סיוע הולם.
"יש כמעט הרגשה שאי אפשר לעשות הפסקה", אומרת צ'אודהורי. "יש המון אנשים שעובדים בחברות טכנולוגיה ותפקידם הוא להגן על משתמשי הפלטפורמה שהם עובדים בשבילה. וההרגשה היא שאם אני אקח חופשה, או אם אני לא דרוכה 24/7, משהו נורא יקרה". מיטשל אומרת שהיא ממשיכה לעבוד בתחום האתיקה של ה-AI "כי יש צורך גדול בזה, וזה כל כך מתבקש, וכל כך מעט אנשים שעוסקים בפועל בלמידת מכונה מבינים את זה".
לא חסרים אתגרים בתחום הזה. ארגונים מפעילים לחץ אדיר על עובדים לתקן בעיות מערכתיות גדולות בלי תמיכה הולמת, אף שרבים מהם מתמודדים עם מבול בלתי פוסק של ביקורות תוקפניות ברשת.
מערכות AI נוטות לשקף ולהחריף את הבעיות החמורות ביותר בחברות שלנו, כמו גזענות וסקסיזם. קשת הטכנולוגיות הבעייתיות נעה ממערכות זיהוי פנים שמסווגות שחורים כגורילות ועד לתוכנות דיפ־פייק המשמשות לייצור סרטי פורנו שבהם מופיעות לכאורה נשים שלא נתנו את הסכמתן ליחסי המין.
אם חברה מנסה לתקן סוגיות מושרשות כמו גזענות, סקסיזם ואפליה במערכת ה-AI שלה, היא עשויה, למשל, לנתח מערכי נתונים גדולים הכוללים תוכן רעיל ביותר, כמו סצנות אונס וקללות גזעניות. הטיפול בסוגיות האלה עלול לגבות מחיר כבד במיוחד מנשים, בני מיעוטים וחברים בקבוצות מודרות אחרות, שנוטים להימשך לעבודות בתחום האתיקה של ה-AI.
ואומנם שחיקה אינה ייחודית לאנשים שעובדים בתחום ה-AI האחראי, אבל כל המומחים ש־MIT Technology Review שוחח עמם אמרו שהם מתמודדים עם אתגרים מתעתעים במיוחד בתחום הזה. "את עובדת על משהו שפוגע בך באופן אישי מאוד ויומיומי", אומרת מיטשל. "זה הופך את קיומה של האפליה למשהו עוד יותר חמור, כי אי אפשר להתעלם ממנו".
למרות המודעות הגוברת בחברה לסיכוני ה-AI, האתיקאים עדיין נאלצים להילחם כדי לקבל הכרה מעמיתיהם בתחום. יש מי שאף מתנגד לעבודתם של האתיקאים של ה-AI. עמאד מוסטאק הוא מנכ"ל Stability AI, סטארט אפ שבנה את Stable Diffusion, כלי AI בקוד פתוח המייצר תמונה מטקסט. מובטאק אמר בציוץ שדיונים על אתיקה העוסקים בטכנולוגיה שלו הם "פטרנליסטיים". מוסטאק ו-Stability AI לא ענו לבקשת MIT Technology Review לתגובה עד למועד פרסום כתבה זו.
"רוב האנשים בתחום ה-AI הם מהנדסים, שלא פתוחים למדעי הרוח", אומר עמנואל גוֹפי, אתיקאי AI ומייסד המכון הגלובלי לאתיקת ה-AI. לדבריו, חברות רוצות פתרונות טכניים מהירים ומישהו ש"יסביר להן איך להיות אתיות במצגת פאוור פוינט עם שלושה שקפים וארבעה בולטים"
"רוב האנשים שעובדים בתחום ה-AI הם מהנדסים. הם לא פתוחים באמת למדעי הרוח", אומר עמנואל גוֹפי, אתיקאי AI ומייסד צוות החשיבה "המכון הגלובלי לאתיקה של ה-AI". חברות רוצות פתרונות טכניים מהירים, אומר גופי. הן רוצות מישהו ש"יסביר להן איך להיות אתיות במצגת פאוור פוינט עם שלושה שקפים וארבעה בולטים". חשיבה אתית חייבת לצלול עמוק יותר, וצריך להחיל אותה על כל הפונקציות בארגון, מוסיף גופי. "מבחינה פסיכולוגית, החלק הקשה ביותר הוא שצריך לבצע פשרות בכל יום – בכל דקה – בין מה שאת מאמינה בו למה שאת חייבת לעשות", הוא אומר.
מיטשל אומרת שהגישה הכללית של חברות הטכנולוגיה, ושל צוותי למידת מכונה בפרט, מעצימה את הבעיה. "לא רק שצריך לעבוד על הבעיות הקשות האלה, אלא שצריך להוכיח שמשתלם לעבוד עליהן. אז זה ההיפך הגמור מלקבל סיוע. זה לעמוד מול התנגדות".
צ'אודהורי מוסיפה, "יש אנשים שחושבים שאתיקה היא תחום חסר טעם, ושאנחנו שליליים לגבי ההתקדמות [שנעשית בתחום ה-AI]".
הרשתות החברתיות מקלות על המבקרים להתגודד ולתקוף את החוקרים. צ'אודהורי אומרת שאין טעם להתווכח עם אנשים שלא מעריכים את מה שאת עושה, "אבל קשה לא להיגרר לזה אם מתייגים אותך או תוקפים אותך אישית, או שמזכירים את המחקר שלך".
המהירות המסחררת של התפתחות ה-AI
גם קצב ההתקדמות המהיר של מחקר ה-AI מחריף את המצב - פריצות הדרך תכופות ומרובות. רק בשנה האחרונה חשפו חברות הטכנולוגיה מערכות AI שמייצרות תמונות מטקסט, ושבועות בלבד אחר כך באה הכרזה מרשימה אף יותר, על תוכנת AI המייצרת וידאו מטקסט. זאת התקדמות מעוררת התפעלות, אבל הנזקים הפוטנציאליים הנלווים לכל פריצת דרך חדשה מייצרים אתגר בלתי פוסק. AI המחוללת תמונה מטקסט עלולה להפר זכויות יוצרים, וייתכן גם שאימנו אותה על מערכי נתונים מלאים בחומרים רעילים, מה שמוליד תוצאות פוגעניות.
"המרדף אחרי כל מה שחם, כל מה שמדובר עכשיו בטוויטר, הוא מתיש", אומרת צ'אודהורי. אי אפשר לצפות מאתיקאים להיות מומחים לאינספור הבעיות השונות שכל פריצת דרך חדשה מייצרת, היא מסבירה. ובכל זאת היא מרגישה שהיא חייבת להספיק לעקוב אחרי כל התפתחות קטנה במחזור המידע של תחום ה-AI, אחרת היא תרגיש שהיא מחמיצה משהו חשוב.
צ'אודהורי אומרת שהעבודה בטוויטר, עם צוות מתוקצב היטב, מקלה עליה כי היא לא צריכה לשאת בנטל לבדה. "אני יודעת שאני יכולה לנסוע לשבוע ושום דבר לא יקרוס, כי אני לא היחידה שעובדת על זה". אבל צ'אודהורי עובדת בחברת טכנולוגיה גדולה שיש לה הכסף והרצון להעסיק צוות AI אחראי שלם. לא כולם זוכים לזה.
אנשים בחברות סטארט אפ קטנות שעוסקות ב-AI נמצאים תחת לחץ כבד מצד המשקיעים להגדיל את העסק, והצ'קים שאנשי ההון סיכון כותבים להם לא משקפים תמיד את העבודה הנוספת שנדרשת כדי לבנות טכנולוגיה אחראית, אומר ויוֶק קאטיאל, חוקר נתונים מ־Multitudes, סטארט אפ אוסטרלי שעובד על אנליטיקס של נתוני אתיקה. המגזר הטכנולוגי צריך להתעקש שאנשי ההון סיכון "יכירו בכך שהם צריכים לשלם יותר בציפייה שהטכנולוגיה תהיה אחראית יותר", אומר קאטיאל.
הבעיה היא שחברות רבות כלל לא מבינות שיש להן בעיה, כך לפי דוח שהוציאו השנה MIT Sloan Management Review ו־Boston Consulting Group. ה-AI הייתה בעדיפות אסטרטגית עליונה בשביל 42% מהמשיבים על השאלות בדוח, אבל רק 19% אמרו שהארגון שלהם הטמיע תוכנית AI אחראי.
אנשים בסטארט אפים בתחום ה-AI נמצאים תחת לחץ כבד מצד המשקיעים, שהצ'קים שלהם לא תמיד משקפים תמיד את העבודה שנדרשת לבניית טכנולוגיה אחראית, אומר ויוֶק קאטיאל, חוקר נתונים בסטארט אפ שמנתח נתוני אתיקה. לדבריו, בענף צריכים להתעקש שהמשקיעים "יכירו בכך שהם צריכים לשלם יותר בציפייה שהטכנולוגיה תהיה אחראית יותר"
יש חברות שחושבות שהן מקדישות מחשבה הולמת למזעור סיכוני ה-AI, אך בפועל הן לא מעסיקות את האנשים הנכונים לתפקידים הנכונים, או נותנות להם את המשאבים הנדרשים כדי ליישם פרקטיקות של AI אחראי, אומר גופטה. "ואז העובדים מתחילים לחוות תסכול ושחיקה", הוא מוסיף.
ביקוש גובר
ייתכן שבקרוב כבר לא תהיה לחברות ברירה אלא לעמוד באמות מידה הולמות של אתיקה ב-AI, כי הרגולטורים מתחילים לחוקק חוקים ייעודיים לתחום. חוק ה-AI וחוק החבוּת שעומדים להיכנס לתוקף באיחוד האירופי יידרשו מחברות לתעד את האופן שבו הן ממזערות נזקים. בארה"ב, מחוקקים בניו יורק, בקליפורניה ובמקומות נוספים עומלים על רגולציה של השימוש ב-AI במגזרים בעלי סיכון גבוה, כמו תעסוקה.
בתחילת אוקטובר חשף הבית הלבן את מגילת זכויות ה-AI, המגדירה את חמש הזכויות שמגיעות לאמריקאים בכל הקשור למערכות אוטומטיות. סביר להניח שמגילת הזכויות תדרבן את הסוכנויות הפדרליות להגדיל את הביקורת שלהן על מערכות של AI ועל החברות המפתחות אותן.
חברות רבות הקפיאו לאחרונה את ההעסקות ואיימו בפיטורים בהיקף גדול בגלל מצבה הרעוע של הכלכלה הגלובלית, ואף על פי כן אפשר לטעון שצוותי AI אחראי מעולם לא היו חשובים יותר, מכיוון שפרישׂת מערכות בינה מלאכותית לא בטוחות או לא חוקיות עלולה להוביל לכך שהחברה תיאלץ לשלם קנסות גדולים או תידרש למחוק את האלגוריתמים שלה.
לדוגמה, באביב של השנה שעברה, נציבות הסחר הפדרלית של ארה"ב אילצה את "שומרי משקל" למחוק את האלגוריתמים שלה לאחר שהתברר שהחברה אספה נתונים על ילדים באופן לא חוקי. פיתוח מודלים של AI ואיסוף בסיסי נתונים הם השקעות גדולות בשביל חברות הטכנולוגיה, וכשהרגולטור מאלץ אותן למחוק אותם כליל זו מהלומה גדולה.
שחיקה ותחושה מתמשכת של חוסר הערכה עלולות לדחוף את העוסקים במלאכה אל מחוץ לתחום, מה שעלול בתורו לפגוע בחקר המשילות והאתיקה של ה-AI באופן כללי. זה מסוכן במיוחד בהינתן שקשה מאוד להחליף את המומחיות שהאנשים האלה צוברים. בסוף 2020 פיטרה גוגל את טימֶניט גֶבּרוּ, ממובילות תחום ה-AI האתי בחברה, וכמה חודשים אחר כך פיטרה את מיטשל. כמה חברים נוספים בצוות ה-AI האחראי עזבו תוך כמה חודשים בלבד. גופטה אומר שבריחת מוחות שכזו היא סיכון חמור להתקדמות בתחום האתיקה של ה-AI והיא מקשה על חברות לדבוק בתוכניותיהן.
בשנה שעברה הכריזה גוגל שהיא מכפילה את מספר החוקרים העוסקים אצלה באתיקה של ה-AI, אבל מאז לא התייחסה להתקדמותה בנושא זה. החברה אמרה ל־MIT Technology Review שהיא מציעה לעובדיה הכשרות להגברת החוסן הנפשי, שהיא מנהלת תוכנית סיוע שבמסגרתה עובדים תומכים נפשית זה בזה, ושהיא נותנת לעובדים גישה לכלים דיגיטליים שיעזרו להם עם מיינדפולנס. היא יכולה גם לקשר אותם וירטואלית למטפלים מוסמכים. היא לא הגיבה לשאלות על תקופת העסקתה של מיטשל בחברה.
מטא אמרה שהיא השקיעה ביוזמות כמו תוכנית שנותנת לעובדים ולבני משפחותיהם 25 פגישות טיפוליות בשנה. טוויטר אמרה שהיא מספקת לעובדיה פגישות טיפול והדרכה וגם הכשרה במניעת שחיקה. לחברה יש גם תוכנית תמיכת עמיתים המתמקדת בבריאות הנפש. אף אחת מהחברות האלה לא אמרה שהיא מספקת סיוע התפור למידותיהם של אתיקאים מתחום ה-AI.
ככל שגדל הביקוש לציות וניהול סיכונים בתחום ה-AI, חברות הטכנולוגיה צריכות להגדיל את השקעתן בתוכניות AI אחראי, אומר אבהישק גופטה, יועץ בתחום ה-AI האחראי ב־Boston Consulting Group. לדבריו, "ההנהלה חייבת לדבר בדולרים, בזמן, במשאבים שהיא מקצה לזה", אחרת היא מייצרת כישלון ידוע מראש
ככל שגדל הביקוש לציות וניהול סיכונים בתחום ה-AI, חברות הטכנולוגיה צריכות להגדיל את השקעתן בתוכניות AI אחראי, אומר גופטה. "השינוי מתחיל מהפסגה. ההנהלה חייבת לדבר בדולרים, בזמן, במשאבים שהיא מקצה לזה", הוא אומר. אחרת היא מציבה את העוסקים בתחום הזה "בעמדת כישלון".
גופטה מוסיף שצוותי AI אחראי מצליחים זקוקים להיקף מספק של כלים, משאבים ואנשים כדי להתמודד עם הבעיות המאפיינות את התחום, אבל הם זקוקים גם לחופש פעולה, לקשר עם כל אגפי הארגון ולכוח ליישם את השינויים שמבקשים מהם לבצע.
רבים ממשאבי בריאות הנפש שחברות הטכנולוגיה מקצות לעובדיהן מתמקדים בניהול זמן ובאיזון עבודה-חיים, אך עליהן להעניק סיוע נוסף לאנשים המתמודדים עם נושאים רגשיים ונפשיים מכבידים, אומרת צ'אודהורי. היא מבהירה שיעזור גם לקבל משאבים פסיכולוגיים ייעודיים לאנשים העוסקים בטכנולוגיה אחראית.
"אין הכרה מספקת בהשלכות של העבודה על דבר כזה, ועל אחת כמה וכמה לא מעודדים את העובדים להתנתק מהעבודה או מקלים עליהם לעשות את זה", אומרת מיטשל. "הכלי היחיד שיש לענקיות הטכנולוגיה להתמודד עם המציאות הקיימת הוא ההתעלמות מקיומה".
Copyright 2022 Technology Review, Inc. Distributed by Tribune Content Agency, LLC
https://www.technologyreview.com/2022/10/28/1062332/responsible-ai-has-a-burnout-problem/