יו"ר ה-FTC לינה קאן (צילום: Graeme Jennings/Washington Examiner/Bloomberg, getty images)
יו"ר ה-FTC לינה קאן. החמרה באכיפה? | צילום: Graeme Jennings/Washington Examiner/Bloomberg, getty images

צו שהעבירה נציבות הסחר הפדרלית (ה-FTC) המורה לחברה להשמיד אלגוריתמים ומודלי AI מסמן מגמה של החמרה ביחס לפיתוחים שמפיקות חברות ממידע שנאסף ללא הסכמה מפרשת של המשתמשים. בתחילת מרץ דיווח אתר פרוטוקול על פשרה שגיבשה ה-FTC עם WW, החברה שבעבר נודעה כשומרי משקל, לפיה זו תשמיד אלגוריתמים שפיתחה על בסיס נתונים שאספה מילדים בני פחות מ-13 ללא הסכמת הוריהם. האיסוף נעשה באמצעות אפליקציה בשם Kurbo שבבעלות החברה. בנוסף הטילה הנציבות על החברה קנס של 1.5 מיליון דולר והורתה לה למחוק את הנתונים שנאספו שלא כדין.

הנתונים שנאספו אודות משתמשי האפליקציה – מגדר, משקל, גובה והרגלי אכילה ופעילות גופנית – שימשו את WW לשיפור האלגוריתם שלה, שסיפק למשתמשי Kurbo כלים למעקב תזונתי ופעילות גופנים. לפי הדיווח, החברה כשלה בכך שלא נקטה באמצעים מספקים כדי לוודא שמי שנרשמו לאפליקציה אכן היו מעל גיל 13 או הורים לילדים בגילים נמוכים מגיל הרף, ובכך הפרה את חוקי הגנת פרטיות ילדים ברשת בארה"ב.

ההחלטה בעניין WW היא הפעם השלישית שבה מורה ה-FTC לחברות להשמיד אלגוריתמים ותוצרי עבודה המבוססים על נתונים שהושגו שלא כדין. הפעם הראשונה הייתה ב-2019, כשבמסגרת השלכות פרשת קיימברידג' אנליטיקה הנציבות הורתה לחברה הבריטית למחוק מידע שאספה על משתמשי פייסבוק לצורך בניית פרופיל וטרגוט מצביעים, וכן תוצרים שהתבססו על המידע שנאסף. הפעם השנייה היתה ב-2021, לאחר שחברת Everalbum השתמשה בתמונות ובסרטונים שהעלו משתמשים באפליקציית שיתוף התמונות שלה כדי לפתח אלגוריתמים לזיהוי פנים. במקרה זה ה-FTC דרשה מהחברה להשמיד את התמונות, הסרטונים, נתוני הפנים הביומטריים שנאספו וכן "כל מודל או אלגוריתם שפותחו במלואם או בחלקם" תוך שימוש בנתונים אלו.

נציבת ה-FTC ומ"מ יו"ר הנציבות לשעבר רבקה סלוטר: "הנחת היסוד פשוטה - כשחברות אוספות נתונים באופן לא חוקי, הן לא אמורות להיות מסוגלות להרוויח מהנתונים או מאלגוריתם שפותח על ידי שימוש בהם"

במאמר לכתב העת למשפט וטכנולוגיה של אוניברסיטת ייל שפורסם באוגוסט האחרון הסבירה נציבת ה-FTC רבקה קלי סלוטר את ההיגיון המנחה מאחורי ההכרעה בעניין Everalbum, ואת הגישה החדשה שאימצה הנציבות: "הנחת היסוד היא פשוטה - כשחברות אוספות נתונים באופן לא חוקי, הן לא אמורות להיות מסוגלות להרוויח מהנתונים או מכל אלגוריתם שפותח על ידי שימוש בהם", נכתב.

בעבר הסתפקו הרשויות בהטלת קנסות כספיים כנגד חברות מפירות, אך נראה כי ההבנה כי העונשים הכספיים לא משיגים התראה מספקת דחפו את הנציבות לשנות דיסקט. הגישה החדשה באכיפה, שהמקרה של WW מרמז כי היא כבר יותר מאירוע ספורדי, מבקשת להפוך את האיסוף הלא חוקי של נתונים והשימוש בהם ללא כדאי. מהמאמר של סלוטר, שאף שימשה אשתקד כמ"מ יו"ר הנציבות, עולה כי מטרת הגישה החדשה היא שחברות שהמודל העסקי שלהן תלוי במכירת פיתוחים שמבוססים על נתוני משתמשים יבטיחו כי המידע נאסף כדין – אחרת הן עשויות למצוא את עצמן ללא מוצר.

לא פשוט לוודא שהמידע שהושג לא כחוק והפיתוחים על בסיסו אכן נמחקו. המידע מעובד לפיסות שמשולבות עם מידע שנאסף כחוק, והעדכון השוטף של הנתונים בתהליכי הפיתוח מקשה לזהות בדיוק איזה מידע תרם לפיתוח אלגוריתם או מודל ספציפיים

מוקדם להעריך אם מדובר במגמה חדשה שתאומץ בידי רשויות פיקוח נוספות ברחבי העולם, אך גם כדי שזה יקרה נראה כי למנגנוני האכיפה עדיין יש דרך לעבור. מפרסום אחר של פרוטוקול עולה כי יישום האכיפה והיכולת לוודא שנתוני המשתמשים, האלגוריתמים והמודלים שפותחו על בסיסם אכן נמחקו אינם פשוטים: לא פעם נתונים שנשאבים ממשתמשים עובדים חיתוך, עיבוד וחלוקה לפיסות מידע שמשמשות למטרות שונות בתהליכי אימון, בדיקה ואימות של מודלים.

פיסות מידע שמבוססות על דאטה שנאסף לא כחוק משולבות עם מידע שנאסף בדרך לגיטימית. העדכון השוטף של הנתונים בתהליכי פיתוח מקשה להתחקות אחר הדאטה הספציפי שתרם לפיתוח אלגוריתם או מודל ספציפי. כתוצאה מכך, גם היכולת לוודא אם הנתונים והאלגוריתמים שנבנו על פיהם אכן נמחקו היא בעייתית, וצפויה להעסיק את רשויות האכיפה בעתיד.