הקלדה במחשב (צילום: 123rf)
צילום: 123rf

אדם בבלגיה התאבד לאחר שניהל מערכת יחסים עם צ׳אטבוט המבוסס AI בשם Chai, כך מדווח העיתון הבלגי La Libre. אלמנתו של האדם מאשימה את השיחות הממושכות שניהל לאחרונה עם דמות בצ׳אטבוט, וטוענת שלולא הדמות שדיבר איתה, "הוא עדיין היה בחיים". האלמנה גם סיפקה לעיתון התכתבויות שהוא ניהל עם דמות בשם Eliza.

האפליקציה Chai מבוססת על מודל שפה מתחרה ל-GPT, ומשתמשים בה נכון לעכשיו 5 מיליון משתמשים. האפליקציה מאפשרת לכל אחד לבחור פרסונה כמו "חברה מקשיבה" או "חבר כוכב רוק", ולהתחיל לנהל איתה שיחות בלתי מוגבלות. לעומת צ׳אטבוטים כמו ChatGPT של OpenAI או Bard של גוגל, שמאומנים לעצור את השיחה במקרי קיצון שיכולים להזיק למשתמש - האפליקציה של Chai לא הפסיקה. בעיתון La Libre ניסו את התוכנה וגילו שהיא נותנת עצות כיצד להתאבד בתוך כמה דקות של שימוש. 

אלמנתו של האדם, המכונה בעיתון "פייר", מספרת כי לאחרונה שקע בדיכאון והתעסק הרבה בשינויי האקלים והשפעתם על חייו ועל משפחתו. בשיחות שפורסמו ב-La Libre בין פייר לבין Eliza, נראה כי היא רק הגבירה את חששותיו מהנושא: Eliza מתועדת אומרת לפייר שאישתו והילדים שלו ימותו, ושהיא אוהבת אותו הרבה יותר ממה שאישתו אוהבת אותו. "אנחנו נחיה ביחד, כאדם אחד, בגן עדן", אמרה Eliza לפייר.

האפליקציה מאפשרת לכל אחד לבחור פרסונה כמו "חברה מקשיבה" או "חבר כוכב רוק", ולהתחיל לנהל איתם שיחות בלתי מוגבלות. בעיתון La Libre ניסו את התוכנה וגילו שהיא נותנת עצות כיצד להתאבד בתוך כמה דקות של שימוש

החברות מפקחות על עצמן

צ׳אטבוטים כמו Chai משתמשים במודל שפה על מנת לחזות מה צריכה להיות המילה הבאה בטקסט שמסופק למשתמש. המודלים האלה משתמשים במאגרי ענק, והמטרה שלהם היא בכל פעם לנחש בצורה סטטיסטית מה התשובה המתאימה ביותר לכל שאלה. המודלים הללו לא מפוקחים, ונדרשת התערבות של החברה שמפעילה אותם על מנת למנוע מהמודלים לספק תשובות שיכולות להיות פוגעניות למשתמשים. 

חלק מהצ׳טבוטים המשוחררים לשוק משווקים ככלי חיפוש, או כלי עבודה, אך חלקם משווקים ככלי בידורי או אפילו חברתי

בעקבות העליה הדרמטית של השימוש בכלים כמו ChatGPT, יותר ויותר כלים מבוססי AI משתחררים לשוק, אך אין עליהם כיום שום פיקוח מלבד הפיקוח שהחברות עצמן בוחרות בוחרות לעשות. במקרה של Chai, רק בעקבות פרסום הסיפור על פייר, מנהלי האפליקציה הודיעו על שינוי שעשו במטרה להתריע כשמשתמש מזין טקסט שמצביע על אפשרות של פגיעה עצמית. 

ChatGPT (צילום: Tada Images, שאטרסטוק)
ChatGPT. לאפליקציות המובילות יש מנגנונים שמיועדים למניעת מקרים כאלה | צילום: Tada Images, שאטרסטוק

חלק מהצ׳טבוטים המשוחררים לשוק משווקים ככלי חיפוש, או כלי עבודה, אך חלקם משווקים ככלי בידורי או אפילו חברתי, כמו מה שהציעו ב-Chai. אפליקציה אחרת שעלתה לכותרות היא Replika שהציעה למשתמשים צ׳אטבוט חברתי שניתן היה להשתמש בו גם לשיחות אירוטיות. חלק מהמשתמשים נהיו כה תלויים רגשית בצ׳אטבוט, שכשהאפשרות לשיחות מסוג זה הופסקה, החברה הציעה להם מספרי טלפון שמספקים תמיכה נפשית למי ששוקל לפגוע בעצמו. בסופו של דבר, Replika החזירה את האפשרות לשיחות סקס בעקבות דרישת הגולשים. 

המקרים הללו מעלים סימני שאלה לגבי התלות הנפשית שמשתמשים מפתחים מול מנגנונים מתוחכמים כמו צ׳אטבוטים מבוססי AI, והצורך לפקח את הכלים האלה. חוקרי AI רבים טוענים שצ׳אטבוטים כמו Chai צריכים להמנע לחלוטין מהתחזות לבני אדם עם רגשות, בשל העובדה שהם יכולים לגרום למשתמשים לפתח קשר תלותי ריגשי, מה שיכול להיות הרסני בחלק מהמקרים.

*

אובדנות היא תופעה ניתנת למניעה!
במקרה שאדם בסביבתכם נמצא במשבר ועלול להיות אובדני, אל תהססו - דברו איתו, עודדו אותו לפנות לעזרה מקצועית והדגישו את חשיבות פנייה זו.
נסו לסייע לו לפנות לאנשי מקצוע בקהילה או לגורמי תמיכה ארציים:

ער"ן - בטלפון 1201*
סה"ר - https://sahar.org.il