Google Photosמשתמש בתוכנת זיהוי פנים מתוחכמת כדי לזהות לא רק אנשים, אלא גם קטגוריות ספציפיות של חפצים וסוגי תמונות, כמו מזון, חתולים וקווי רקיע.
תוכניות זיהוי תמונות רחוקות מלהיות מושלמות, עם זאת; לפעמים הם מקבלים דבריםשגוי באופן קומי, ולפעמים באופן פוגעני -- כפי שגילה לאחרונה משתמש טוויטר אחד.
[seealso slug="https://veit.uno/tech/amandine/2015/06/23/facebook-facial-recognition-2"]
בגלישה באפליקציית Google Photos שלו, תושב ברוקלין, ג'קי אלסינה, שם לב שתמונות שלו ושל חבר, שניהם שחורים, תויגו תחת התווית "גורילות". הוא שיתף תמונת מסך של התווית הגזענית בטוויטר, וזה היהמְנוּקָדמאת Yahoo Tech.
גוגל תמונות, כולכם דפוקים. חבר שלי לא גורילה.pic.twitter.com/SMkMCsNVX4— דירי שחור עם בננה (@jackyalcine)29 ביוני 2015
יונתן צונגר, האדריכל החברתי הראשי של גוגל, הגיב במהירות.
@jackyalcineלעזאזל קדוש. G+ CA כאן. לא, לא כך אתה קובע את שוק היעד של מישהו. זה 100% לא בסדר.- יונתן צונגר (@yonatanzunger)29 ביוני 2015
בסערת טוויטר שלאחר מכן, צונגר אמר שגוגל מארגנת צוות כדי לטפל בבעיה, והתווית הוסרה מהאפליקציה שלו תוך 15 שעות, אישר אלסינה ל-Mashable. צונגר אמר שגוגל בוחנת גם תיקונים לטווח ארוך יותר. דובר גוגל שלח גם הצהרה רשמית:
"אנחנו מזועזעים ומצטערים באמת שזה קרה. אנו נוקטים בפעולה מיידית כדי למנוע את הופעת תוצאות מסוג זה. ברור שיש עדיין הרבה עבודה לעשות עם תיוג תמונות אוטומטי, ואנחנו בוחנים איך נוכל למנוע מהסוגים האלה של טעויות להתרחש בעתיד."
למרבה הצער, זו לא הפעם הראשונה שתוכנה משמיצה אנשים כהי עור בטעות. בחודש מאי, תכונת התיוג האוטומטי של פליקר תייגה אדם שחורבתור "קוף",למרות שזה שם את אותו תג גם על אישה לבנה. ולפני שנים, כמה מצלמות רשת במחשבים ניידים מתוצרת HPלא עקבה אחר פניהם של אנשים שחוריםלמרות שהם עשו זאת עבור משתמשים לבנים.
לפחות במקרה של Google Photos, האירוע נראה מבודד, מכיוון שלא נראה שמשתמשים אחרים הופיעו עם תלונות דומות על תגיות פוגעניות. אבל זו תזכורת שלמרות שמחשבים מתחילים לעשות עבודה ממש טובה בהדמיית ראייה אנושית, הם רחוקים מאוד מלדמות רגישות אנושית.