בתחילת יוני הוציאה גוגל את אחד ממהנדסיה לחופשה מנהלית לאחר שטען כי זיהה רגשות ומודעות עצמית אצל יישום הדיאלוג LaMDA (ראשי התיבות של Language Model for Dialogue Applications). מכיוון שמודעות עצמית אצל מכונה היא מרכיב שמופיע הרבה בסרטים, ומכיוון שחלום האנושיות המלאכותית עתיק כמדע עצמו, הסיפור הפך ויראלי ומשך יותר תשומת לב משמשכה אי-פעם כתבה כלשהי על עיבוד שפה טבעית (NLP). זה די חבל.

המחשבה ש-LaMDA פיתחה מודעות היא שטות גמורה: ל-LaMDA אין יותר מודעות מכפי שיש למחשבון כיס. חשוב מכך, התוצאה של הסיפור היא שפעם נוספת הפנטזיה הטיפשית על מכונה שמפתחת מודעות עצמית שולטת בדיון על בינה מלאכותית, בשעה שאנשים עובדים על פיתוחים מוזרים ומהודרים הרבה יותר - ויפים ומסוכנים פוטנציאלית הרבה יותר.

האמת היא שהעובדה ש-LaMDA זכתה לתשומת לב מיוחדת היא קצת מוזרה. LaMDA היא סוכנת דיאלוג, סוג של יישום שהמטרה שלו היא לשכנע אתכם שאתם משוחחים עם אדם. וצ'אט-בוטים משכנעים לגמרי הם כבר מזמן לא טכנולוגיה פורצת דרך. למעשה, תוכניות כמו "פרויקט דצמבר" מסוגלות לשחזר יקירים שהלכו לעולמם באמצעות NLP. אבל לסימולציות כאלה אין חיים משל עצמן, כפי שלתצלום של הסבא-רבא המת שלכם אין חיים משל עצמו.

מודלים עוצמתיים ומבלבלים יותר מ-LaMDA כבר קיימים. LaMDA פועלת לפי כ-137 מיליארדי פרמטרים שהם – בגדול – תבניות שפה, שתוכנות NLP מבוססות-טרנספורמרים משתמשות בהן כדי ליצור ניבויי טקסט בעלי משמעות. לאחרונה שוחחתי עם מהנדסים שעבדו על מודל השפה הכי מעודכן של גוגל, PaLM (קיצור של Pathways Language Model), שמכיל 540 מיליארדי פרמטרים ומסוגל לנהל מאות משימות נפרדות מבלי שיאמנו אותו במיוחד כדי לבצען. זו כבר בינה מלאכותית כללית אמיתית, כי מתברר שהיא מסוגלת להתאים את עצמה למשימות אינטלקטואליות שונות ללא אימון מיוחד, בלי לעשות קסטומיזציות.

מטרתן של יישומו מסוג סוכנת דיאלוג היא לשכנע אתכם שאתם משוחחים עם אדם. צ'אט-בוטים משכנעים-לגמרי הם כבר מזמן לא טכנולוגיה פורצת דרך. אבל לסימולציות כאלה אין חיים משל עצמן, כפי שלתצלום של הסבא-רבא המת שלכם אין חיים משל עצמו

כמה ממשימות אלו הן ללא ספק שימושיות ויש בהן פוטנציאל לשינוי גדול. לדברי המהנדסים – ורק כדי להבהיר, לא ראיתי את PaLM בפעולה במו-עיני, כי המודל אינו מוצר – אם תשאל אותו שאלה בבנגלית, הוא יוכל לענות עליה בבנגלית וגם באנגלית. אם תבקש ממנו לתרגם כמה שורות קוד משפת C ל-Python, הוא יוכל לעשות זאת. הוא יכול לסכם טקסט. הוא יכול להסביר בדיחות. ויש גם את הפונקציה שהבהילה את מפתחיו ודורשת סוג של ריחוק וקור-רוח אינטלקטואלי כדי לא להתחרפן ממנה: PaLM יכול גם לנמק. או לייתר דיוק – ודיוק חשוב כאן מאוד – PaLM יכול לדמות מנמק.

המתודה שבאמצעותה PaLM מנמק נקראת "הנחיית חוט-מחשבה". שָרָן נַרַאנְג, אחד המהנדסים המובילים את פיתוח PaLM, סיפר לי שמודלים גדולים של שפה אף פעם לא היו טובים במיוחד בקפיצות לוגיות, אלא אם כן אומנו לכך במיוחד. כשנותנים למודל שפה גדול את התשובה לבעיה מתמטית ואז מבקשים ממנו לשחזר את הדרך לפתרון הבעיה – זה בדרך כלל לא ממש עובד. אבל הנחיית חוט-מחשבה מאפשרת להסביר למודל איך עובדת המתודה שמתווה את הדרך לתשובה במקום לתת לו את התשובה עצמה. גישה זו קרובה יותר לאופן שבו מלמדים ילדים מאשר לאופן שבו מתכנתים מכונות. "אם סתם אמרת להם שהתשובה היא 11, הם יהיו מבולבלים. אבל אם תפרק את זה לגורמים, הם יצליחו יותר", אומר נראנג.

גוגל ממחישה את התהליך בתמונה להלן:

אם לא די במוזרות הכללית של התכונה הזו, גם מהנדסי גוגל בעצמם לא מבינים איך או מדוע PaLM מסוגל לבצע את הפונקציה הזאת. יתכן כי ההבדל בין PaLM למודלים אחרים טמון בעוצמה החישובית הפראית שיש לו. ויתכן שזאת העובדה כי רק 78% מהשפה שבה PaLM התאמן הייתה אנגלית, דבר שהרחיב את המשמעויות ששמינות עבור המודל, בניגוד למודלי שפה גדולים אחרים כמו GPT-3. ואולי זו העובדה שהמהנדסים שינו את האופן שבו הם מתייגים את המידע המתמטי שתכנים שמוזנים לתוך המודל. 

למהנדסים יש ניחושים משלהם, אבל אפילו הם לא מרגישים שהסבריהם טובים יותר משל אחרים. במילים פשוטות, PaLM "הדגים יכולות שטרם נראו בעבר", אמרה לי אקנקשה צ'אודהרי, חברה בצוות ה-PaLM, שעדיין רחוקה מלהבין את PaLM, בדיוק כמו כל המהנדסים האחרים.

כל זה לא קשור למודעות מלאכותית, כמובן. "אני לא עושה אנתרופומורפיזציה", אמרה צ'אודהרי בפסקנות, "זה פשוט ניבוי שפה". מודעות מלאכותית היא חלום רחוק שנותר נטוע במדע בדיוני, כי אין לנו מושג מהי המודעות האנושית; אין שום תזה מתפקדת וניתנת להפרכה של מודעות, רק כמה תפיסות מעורפלות. ואם אין שום דרך לערוך ניסויים במודעות, אין גם שום דרך לתכנת אותה. אפשר לבקש מאלגוריתם לעשות רק מה שאתה אומר לו לעשות. אנחנו מסוגלים להעלות בדעתנו רק משחקים קטנים על מנת להשוות בין מכונות לבני אדם. כמו משחק החיקוי של טיורינג, שבסופו של דבר לא מוכיח כלום.

מודעות מלאכותית היא חלום רחוק שנותר נטוע במדע בדיוני, כי אין לנו מושג מהי המודעות האנושית; אין שום תזה מתפקדת וניתנת להפרכה של מודעות, רק כמה תפיסות מעורפלות. ואם אין שום דרך לערוך ניסויים במודעות, אין גם שום דרך לתכנת אותה. אפשר לבקש מאלגוריתם לעשות רק מה שאתה אומר לו לעשות

במקום זאת הגענו למקום שונה לגמרי ממודעות מלאכותית. באופן מוזר, היה קל יותר להבין מודל כמו PaLM אילו פשוט היו לו רגשות. לפחות ידוע לנו במה כרוכה חוויה של מודעות. כל הפונקציות של PaLM שתיארתי עד עתה מגיעות מניבוי טקסט ותו-לא. "מהי המילה הבאה שהגיונית?", וזהו. זה הכול. למה שהתוצאה של פונקציה זו תהיה דילוגים עצומים שכאלה ביכולת ליצור משמעות? הטכנולוגיה הזאת פועלת באמצעות מצע תשתיות שמצויות לא רק בבסיס כל השפות, אלא בבסיס כל המשמעויות (האם יש באמת הבדל?), ותשתיות אלה הן מסתוריות באופן עמוק ביותר. אולי ל-PaLM יש אופני פעולה שמתעלים על יכולת ההבנה שלנו. מה PaLM מבין שאנחנו לא יודעים איך לשאול אותו?

שימוש במילה כמו "מבין" הוא טעון מאוד בשלב זה. בעיה אחת בעיסוק עם מציאות ה-NLP היא מכונת ההייפ של הבינה המלאכותית, שכמו כל דבר בעמק הסיליקון מגזימה באופן שבו היא מוכרת את עצמה. גוגל, בתכני קידום המכירות שלה, טוענת כי PaLM מציג "הבנה מרשימה של שפה טבעית". אבל מה פירוש המילה "הבנה" בהקשר זה? גם לי זה לא לגמרי ברור: מצד אחד, PaLM ומודלי שפה גדולים אחרים מסוגלים "להבין" בכך שאם אומרים להם משהו, אז הם רושמים את משמעותו. מצד שני, זה לא דומה בכלום להבנה אנושית.

"אני מוצא שהשפה שלנו לא טובה בהבעת דברים כאלה", אמר לי זובין גאהרמני, סגן נשיא למחקר בגוגל. "יש לנו מילים למיפוי משמעות בין משפטים ואובייקטים, והמילים שאנחנו משתמשים בהן הן מילים כמו 'הבנה'. הבעיה היא שבמובן צר, תוכל לומר שהמערכות האלה מבינות כפי שמחשב מבין פעולת חיבור, ובמובן עמוק יותר הן לא מבינות. עלינו להתייחס למילים אלה במידה של זהירות". מיותר לציין ששרשורי טוויטר, ורשתות מידע ויראליות בכללן, אינם טובים במיוחד בהתייחסות לדברים במידה של זהירות.

גאהרמני נלהב מחוסר-הידיעה המטריד שיש בכל זה. כבר 30 שנה שהוא עובד בבינה מלאכותית, אבל הוא אמר לי שעכשיו זאת "התקופה הכי מרגשת להיות בתחום הזה", בדיוק בגלל "הקצב שבו אנחנו מופתעים מהטכנולוגיה". הוא רואה פוטנציאל עצום בבינה מלאכותית ככלי לשימוש במקרים שבהם בני אדם באמת גרועים בכל מיני דברים שמחשבים ומערכות בינה מלאכותית טובים בהם.

"אנחנו נוטים לחשוב על בינה באופן שמעמיד את האדם במרכז, מה שמוביל אותנו לשלל בעיות", אמר גאהרמני. "אחת מהן היא אנתרופומורפיזציה לטכנולוגיות טיפשות שסתם מזווגות תבניות סטטיסטיות. בעיה אחרת היא שאנחנו נמשכים לניסיון לחקות יכולות אנושיות במקום להשלים יכולות אנושיות". בני אדם לא בנויים למציאת משמעויות ברצפים גנטיים, לדוגמה, אבל יתכן שמודלי שפה גדולים דווקא כן בנויים לכך. מודלי שפה גדולים יכולים למצוא משמעות במקומות שבהם אנחנו יכולים למצוא רק כאוס.

google assistent גוגל אסיסטנט AI (צילום: Tada Images, שאטרסטוק)
גוגל אסיסטנט. לגוגל אין תוכניות להפוך את PaLM למוצר | צילום: Tada Images, שאטרסטוק

למרות זאת, מעורבות כאן סכנות חברתיות ופוליטיות עצומות, לצד אפשרויות ליופי שקשה עדיין לרדת לחקרן. מודלי שפה גדולים לא מניבים מודעות, אבל כן מניבים חיקויים משכנעים של מודעות, חיקויים שעומדים להשתפר דרסטית, וימשיכו לבלבל בני אדם. כאשר גם מהנדס בגוגל לא מצליח להבדיל בין סוכנת דיאלוג לאדם אמיתי, איזו תקווה תהיה כשהדברים האלה יגיעו לכלל הציבור? שלא כמו תחושתיות מכונה, השאלות האלה אמיתיות. התשובה עליהן תדרוש שיתוף פעולה חסר תקדים בין אנשי מדעי הרוח לבין אנשי הטכנולוגיה. עצם עתידה של המשמעות מוטל על הכף.

אז לא – לגוגל אין מודעות מלאכותית. אך היא בונה מערכות שפה גדולות ועוצמתיות באופן יוצא מהכלל שמטרתן הסופית, לדברי נראנג, "לאפשר מודל אחד שמסוגל להכליל בין מיליוני משימות ולבלוע נתונים מאופנים רבים". האמת, יש לנו די דאגות עם כל הרובוטים של המדע הבדיוני שמסתובבים לנו בראש. לגוגל אין תוכניות להפוך את PaLM למוצר. "לא כדאי שנעשה דברים לפני שנהיה מוכנים, במובן של יכולות", אמר גאהרמני. "עלינו להתייחס לכל הטכנולוגיה הזו באופן זהיר וספקני".

לבינה מלאכותית, במיוחד כזאת שנובעת מלימוד עומק, יש נטייה להתקדם במהירות בדילוגי פיתוח מדהימים ואז להיתקע. (לדוגמה, מכוניות אוטונומיות או דימות רפואי). אבל כשהדילוגים באים, הם באים מהר ובעוצמה ובדרכים לא צפויות. גאהרמני אמר לי שעלינו להגיע לדילוגים האלה בצורה בטוחה, והוא צודק. אנחנו מדברים כאן על מכונת משמעות מכלילה ולכן לא יזיק להיזהר.

הפנטזיה על רגשות ומודעות באמצעות בינה מלאכותית היא לא רק שגויה, היא גם משעממת. זה חלום על חדשנות דרך רעיונות מקובלים, העתיד כפי שהוא נראה בעיני אנשים שמחשבותיהם לא השתחררו מהשפעת סדרות מדע בדיוני משנות ה-30 של המאה הקודמת. השאלות שכופה עלינו טכנולוגיית הבינה המלאכותית המתקדמת הן הכי עמוקות וגם הכי פשוטות. ואלה שאלות שאנחנו לחלוטין לא מוכנים להתמודד עימן. אני מודאג שמא לבני האדם פשוט לא תהיה בינה להתמודד עם השפעות ההבינה המלאכותית. הגבול בין שפתנו לשפתן של המכונות הולך ומיטשטש, ויכולתנו להבין את האבחנה ביניהן מתפוגגת בערפל הזה.

.Copyright 2022 The Atlantic, Inc. Distributed by Tribune Content Agency, LLC

https://www.theatlantic.com/technology/archive/2022/06/google-palm-ai-artificial-consciousness/661329/