במדע בדיוני, טכנולוגיית זיהוי פנים היא סימן היכר של חברה דיסטופית. האמת של איך זה נוצר, ואיך זה משמש היום, היא מטורפת לא פחות.
ב אמחקר חדש, חוקרים עורכים סקר היסטורי של למעלה מ-100 מערכי נתונים ששימשו לאימון מערכות זיהוי פנים שנאספו במהלך 43 השנים האחרונות. הגילוי הרחב ביותר הוא שככל שהצורך במידע נוסף (כלומר תמונות) גדל, החוקרים הפסיקו לטרוח ולבקש את הסכמת האנשים בתמונות שבהן השתמשו כנתונים.
החוקרים דבורה ראג'י ממוזילה וג'נבייב פריד מ-AI Now פרסמו את המחקר על שירות ההפצה החינמי של אוניברסיטת קורנל,arXiv.org. סקירת הטכנולוגיה של MITפרסם את הניתוח שלושל העיתון יום שישי, ותיאר אותו כ"מחקר הגדול ביותר אי פעם של נתוני זיהוי פנים" ש"מראה עד כמה העלייה של למידה עמוקה עוררה אובדן פרטיות".
בתוך התרשים של המחקר של האבולוציה של מערכי נתונים של זיהוי פנים, ישנם רגעים בהיסטוריה ועובדות על התפתחות הטכנולוגיה הזו שחושפים. הם מראים כיצד טבעו של זיהוי פנים הוא שזוהי טכנולוגיה פגומה כשהיא מיושמת על תרחישים בעולם האמיתי, שנוצרה במטרה מפורשת של הרחבת מצב המעקב, עם השפעה של השפלה בפרטיות שלנו.
הנה 9 קטעים מפחידים ומפתיעים מ-43 שנות מחקר של זיהוי פנים.
1. הפער בין ביצועי זיהוי הפנים במסגרות אקדמיות לעומת יישומים בעולם האמיתי הוא עצום.
אחת הסיבות שהחוקרים נותנים לביצוע המחקר שלהם היא להבין מדוע מערכות זיהוי פנים שמבצעות דיוק של כמעט 100 אחוז בבדיקה, פגומות מאוד כשהן מיושמות בעולם האמיתי. לדוגמה, הם אומרים, ה-MTA של ניו יורקעצר טייס זיהוי פניםלאחר שהיה לו שיעור שגיאות של 100 אחוז. זיהוי פנים, שהוכח כפחות מדויק על פנים שחורות וחומות, הוביל לאחרונה למעצר של שלושה גברים שחוריםבמי שזוהו באופן שגוי על ידי הטכנאי.
2. משרד ההגנה אחראי לפריחה המקורית בטכנולוגיה זו.
למרות שהמאמצים לפתח זיהוי פנים החלו במסגרות אקדמיות, זה המריאו בשנת 1996 כאשר ה-DoD והמכון הלאומי לתקנים וטכנולוגיה (NIST) הקצו 6.5 מיליון דולר ליצירת מערך הנתונים הגדול ביותר עד כה. הממשלה התעניינה בתחום זה בגלל פוטנציאל המעקב שלו שלא דרש מאנשים להשתתף באופן פעיל, בניגוד לטביעת אצבע.
3. התמונות המוקדמות ששימשו ליצירת נתוני זיהוי פנים הגיעו מסשנים פורטרטים, מה שאפשרו פגמים גדולים.
זה נראה כמעט מוזר, אבל לפני אמצע שנות ה-2000, הדרך שבה חוקרים צברו מסדי נתונים הייתה בכך שאנשים ישבו להגדרות דיוקן. מכיוון שחלק מטכנולוגיות זיהוי הפנים הבסיסיות כיום הגיעו ממערכי הנתונים הללו, הפגמים של טכניקת הפורטרט מהדהדים. כלומר, קבוצה לא מגוונת של משתתפים, והגדרות מבוימות שאינן משקפות במדויק את תנאי העולם האמיתי.
4. כשמפגשי פורטרט לא הספיקו, החוקרים פשוט התחילו לגרד את גוגל - והפסיקו לבקש הסכמה.
כן, כשחוקרים רצו להרחיב מערכי נתונים מעבר לפורטרטים, זה ממש מה שקרה. מערך נתונים משנת 2007 בשם Labeled Faces in the Wild גרד את Google, Flickr, YouTube ומאגרים מקוונים אחרים של תמונות. זה כלל תמונות של ילדים. זה אמנם הוביל למגוון גדול יותר של תמונות, אבל זה גם השלל את זכויות הפרטיות של הנבדקים.
מהירות אור ניתנת לריסוק
"בתמורה למערכי נתונים מציאותיים ומגוונים יותר, היה גם אובדן שליטה, מכיוון שהפך לבלתי ניתן לניהול להשיג את הסכמת הנבדק, לתעד הפצות דמוגרפיות, לשמור על איכות מערך הנתונים ולתקן תכונות כגון רזולוציית תמונה על פני מערכי נתונים שמקורם באינטרנט", העיתון. קורא.
5. הבום הבא בזיהוי פנים הגיע מפייסבוק.
החוקרים מציינים נקודת מפנה בזיהוי פנים כאשר פייסבוק חשפה את יצירת מסד הנתונים DeepFace שלה בשנת 2014. פייסבוק הראתה כיצד אוסף של מיליוני תמונות יכול ליצור רשתות עצביות שהיו טובות בהרבה במשימות זיהוי פנים מאשר מערכות קודמות, מה שהופך את הלמידה העמוקה ל- אבן יסוד של זיהוי פנים מודרני.
6. הפתעה מפתיעה, ההתחייבות המאסיבית של זיהוי הפנים של פייסבוק הפרה את פרטיות המשתמשים.
פייסבוק קיימת מאזקנס על ידי ה-FTCושילם פשרהלמדינת אילינוי על השימוש בתמונות שמשתמשים העלו לפייסבוק כדי לאפשר את זיהוי הפנים שלה מבלי לקבל את הסכמת המשתמשים. הדרך שבה DeepFace באה לידי ביטוי הייתה באמצעות "Tag Suggestions", תכונה שהצליחה להציע את האדם בתמונה שלך שאולי תרצה לתייג. קבלת או דחיית תגים הפכה את המערכות של פייסבוק לחכמות יותר. הצעות תגים היו ביטול הסכמה, מה שאומר שהשתתפות בטכנולוגיה זו הייתה ברירת המחדל.
7. זיהוי פנים הוכשר על פניהם של 17.7 מיליון אנשים - וזה רק במאגר הנתונים הציבוריים.
במציאות, איננו יודעים את מספרם או זהותם של אנשים שתמונותיהם גרמו להם למשתתפים לא מדעת בפיתוח טכנולוגיית זיהוי פנים.
8. אוטומציה בזיהוי פנים הובילה למערכות תיוג פוגעניות וייצוג לא שוויוני.
מערכות זיהוי פנים התפתחו מעבר לזיהוי פנים או אדם. הם יכולים גם לתייג אנשים ואת התכונות שלהם בדרכים פוגעניות.
"התוויות הללו כוללות את התוויות הבעייתיות ועלולות להעליב לגבי גודל - 'שמנמן', 'סנטר כפול' - או מאפיינים גזעיים בלתי הולמים כמו 'עור חיוור', 'אף מחודד', 'עיניים צרות' עבור נושאים אסייתים ו'אף גדול'. ו'שפתיים גדולות' עבור נושאים שחורים רבים", נכתב בעיתון. "בנוסף יש הכללה מוזרה של מושגים, כמו 'שקיות מתחת לעיניים', 'צל של חמש בערב' ותוויות בלתי אפשריות באופן אובייקטיבי להגדרה עקבית, כמו 'אטרקטיבי'".
פרצופים שנחשבו ל"מערביים" הפכו לברירת המחדל במערכות אימון. ומערכי נתונים אחרים שנוצרו במפורש כדי להגביר את הגיוון היו בעייתיים בעצמם: מטרת מערכת אחת כזו הייתה "לאמן אלגוריתמים בלתי משוחדים ומודעים לאפליה", אבל החוקרים מציינים שזה רק "מחלק את המוצא האתני האנושי לשלוש קטגוריות בלבד. "
תקלות אלו חורגות מעצם היותה פוגענית. מֶחקָרהראהכי אפליה ב-AI יכולה לחזק את האפליה בעולם האמיתי.
9. היישומים של טכנולוגיית זיהוי פנים כיום נעים בין מעקב ממשלתי למיקוד מודעות.
זיהוי פנים גם נשאר נאמן לשורשיו וגם התרחב מעבר למה שיוצריו בשנות השבעים יכלו לדמיין.
"אנו יכולים לראות מההקשר ההיסטורי שהממשלה קידמה ותמכה בטכנולוגיה הזו מלכתחילה במטרה לאפשר חקירה פלילית ומעקב", כותבים המחברים. לדוגמה, אמזון כבר מכרה את טכנולוגיית ההכרה הבעייתית שלהמספר לא ידועשל מחלקות המשטרה.
בקצה השני של הספקטרום, כמה מערכי הכשרה מבטיחים שהם יכולים לעזור לפתח מערכות לניתוח סנטימנט של קונים ולעקוב טוב יותר אחר לקוחות פוטנציאליים ולהבין אותם טוב יותר.
מה יותר דיסטופי: מדינת המעקב או מכונת פרסום קפיטליסטית יודעת כל? אתה מחליט.
רחל קראוס היא כתבת Mashable Tech המתמחה בבריאות ואיכות חיים. היא ילידת LA, בוגרת NYU j-school, וכותבת פרשנות תרבותית ברחבי האינטרנט.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.