כולנו הכרנו את טכנולוגיית זיהוי הפניםהיה פגום, רק אולי לאזֶהפגום.
מחקר חדש של המכון הלאומי לתקנים וטכנולוגיה,פורסם ב-19 בדצמבר, מפרט בפירוט קפדני כיצדטכנולוגיה לזיהוי פניםטועה בזיהוי קשישים, צעירים, נשים ואנשים צבעוניים בשיעורים גבוהים מזה של גברים לבנים. במילים אחרות, אוכלוסיות בסיכון גבוהות יותר הן גם אלו שסבלו יותר מהתאמות שווא וכל בעיות משפטיות הקשורות בעקבותיהן.
עד כמה זה גרוע? בואו ניתן למחברי המחקר של NIST להסביר.
"מצאנו שתוצאות חיוביות כוזבות גבוהות יותר אצל נשים מאשר גברים, וזה עקבי בכל אלגוריתמים ומערכי נתונים", הם כתבו. "מצאנו תוצאות חיוביות שגויות מוגברות בקשישים ובילדים; ההשפעות היו גדולות יותר אצל המבוגרים והצעירים ביותר, והקטנות ביותר אצל מבוגרים בגיל העמידה."
וזה לא הכל. "עם תמונות מאג-shot", המשיכו המחברים, "התוצאות השגויות הגבוהות ביותר הן באינדיאנים אמריקאים, עם שיעורים גבוהים באוכלוסיות אפרו-אמריקאיות ואסיאתיות".
מהירות אור ניתנת לריסוק
למה זה משנה? ובכן, רשויות אכיפת החוק משתמשות בטכנולוגיה, וככזו תוצאות כוזבות יכולות להוביל ישירות למעצרים מוטעים ולהטרדה.
מחקר זה, שטוען ל"ראיות אמפיריות" לממצאיו, בוודאי יוסיף תמיכהקריאות מחוקקיםלאסור את הטכנולוגיה השנויה במחלוקת.
"התחלנו להשמיע אזעקה על הדרך שבה מתרחבת טכנולוגיית זיהוי הפנים בנושאי [דרכים]"כתבה חברת הקונגרס אלכסנדריה אוקסיו-קורטזביולי. "מה-FBI ועד ICE ועד אמזון, רף ההסכמה וההגנה על חירויות האזרח מופר שוב ושוב, ובנוסף לכל זה יש גם השפעה גזעית לא מידתית".
כעת יש לה ראיות נוספות לגיבוי הטענה האחרונה.
חשוב לציין, חברת הקונגרס לא לבד בדאגתה. בהצהרה שפרסם הוושינגטון פוסט, הסנאטור רון ווידן הגיב לממצאי ה-NIST בכך ש"אלגוריתמים נושאים לעתים קרובות את כל ההטיות והכשלים של עובדים אנושיים, אבל עם עוד פחות שיפוט".
מספר הולך וגדל של ערים, כוללסן פרנסיסקווברקלי, עבר לאחרונה לאסור שימוש ממשלתי כלשהו בטכנולוגיה. אולי המחקר הזה יעודד אחרים ללכת בעקבותיו.