המבט הראשון שמשתמש טוויטר מקבל בציוץ עשוי להיות מבט מוטה גזעית שלא במתכוון.
טוויטר הודיעה ביום ראשון כי היא תחקור האם הרשת העצבית שבוחרת איזה חלק בתמונה להציג בתצוגה מקדימה של תמונה מעדיפה הצגת פניהם של אנשים לבנים על פני אנשים שחורים.
הצרות התחילו בסוף השבוע כאשר משתמשי טוויטר פרסמו מספר דוגמאות כיצד, בתמונה הכוללת תמונה של אדם שחור ותמונה של אדם לבן, התצוגה המקדימה של טוויטר של התמונה בציר הזמן הציגה את האדם הלבן בתדירות גבוהה יותר.
ייתכן שהציוץ נמחק
הבדיקות הפומביות זכו לתשומת לבה של טוויטר - וכעת החברה כנראה נוקטת בפעולה.
"הצוות שלנו בדק את ההטיה לפני שליחת הדגם ולא מצא עדויות להטיה גזעית או מגדרית בבדיקה שלנו", אמרה ליז קלי, חברה בצוות התקשורת של טוויטר, ל-Mashable. "אבל ברור מהדוגמאות האלה שיש לנו עוד ניתוח לעשות. אנחנו בוחנים את זה ונמשיך לשתף במה שאנחנו לומדים ובאילו פעולות אנחנו נוקטים".
קצין העיצוב הראשי של טוויטר דנטלי דייוויס וקצין הטכנולוגיה הראשי Parag Agrawal צלצלו גם הם בטוויטר, ואמרו שהם "חוקרים" את הרשת העצבית.
מהירות אור ניתנת לריסוק
ייתכן שהציוץ נמחק
ייתכן שהציוץ נמחק
השיחה התחילה כשמשתמש אחד בטוויטר פרסם תחילה על הטיה גזעית בזיהוי הפנים של זום. הוא הבחין שהתמונה זה לצד זה שלו (אדם לבן) ושל עמיתו השחור הראו שוב ושוב את פניו בתצוגה מקדימה.
ייתכן שהציוץ נמחק
אחרי מספר משתמשיםנכנס לבדיקה, משתמש אחד אפילו הראה כיצד העדפת פנים בהירים יותר הייתה המקרה עם דמויות ממשפחת סימפסון.
ייתכן שהציוץ נמחק
ההבטחה של טוויטר לחקור מעודדת, אבל משתמשי טוויטר צריכים לראות את הניתוחים במעט מלח. זה בעייתי לטעון למקרים של הטיה מקומץ דוגמאות. כדי להעריך באמת הטיה, החוקרים זקוקים לגודל מדגם גדול עם דוגמאות מרובות במגוון נסיבות.
כל דבר אחר הוא טענות על הטיה באמצעות אנקדוטה - משהו ששמרנים עושים לוטוענים להטיה אנטי-שמרניתברשתות החברתיות. טיעונים מסוג זה יכולים להזיק מכיוון שאנשים בדרך כלל יכולים למצוא דוגמה אחת או שתיים כמעט לכל דבר כדי להוכיח נקודה, מה שמערער את הסמכות של ניתוח קפדני בפועל.
זה לא אומר שלא כדאי לבדוק את שאלת התצוגה המקדימה, שכן זו יכולה להיות דוגמה לכךהטיה אלגוריתמית: כאשר מערכות אוטומטיות משקפות את ההטיות של יוצריהן האנושיים, או מקבלים החלטות שיש להן השלכות מוטות.
בשנת 2018, טוויטר פרסמה אפוסט בבלוגשהסביר כיצד היא השתמשה ברשת עצבית כדי לקבל החלטות לגבי תצוגה מקדימה של תמונות. אחד הגורמים שגורמים למערכת לבחור חלק מתמונה הוא רמות ניגודיות גבוהות יותר. זה יכול להסביר מדוע נראה שהמערכת מעדיפה פנים לבנים. ייתכן שהחלטה זו להשתמש בניגודיות כגורם מכריע אינה גזענית בכוונה, אך לעתים קרובות יותר הצגת פנים לבנים מאשר שחורים היא תוצאה מוטה.
עדיין יששאלההאם הדוגמאות האנקדוטליות הללו משקפות בעיה מערכתית. אבל להגיב למחפשי טוויטר בהכרת תודה ובפעולה היא מקום טוב להתחיל בו לא משנה מה.
ייתכן שהציוץ נמחק