קרדיט: Shutterstock / אנטון ווטמן
התקדמות בבינה מלאכותית יכולה להיות מדאיגה ביותר, במיוחד כאשר יש כמה בעיות אינטימיות ופרטיות רציניות על כף המאזניים.
ראה גם:
אלִלמוֹדמאוניברסיטת סטנפורד, שדווח לראשונה ב-כַּלכָּלָן, העלה מחלוקת לאחר שטענה כי AI יכול להסיק אם אנשים הם הומואים או סטרייטים על ידי ניתוח תמונות של הומו ואדם סטרייט זה לצד זה.
יש לקבוצות הסברה של LGBTQ ולארגוני פרטיותטרקהדו"ח כ"מדע זבל" וכינה אותו "מסוכן ופגום" בגלל חוסר ייצוג ברור, הטיה גזעית וצמצום ספקטרום המיניות לבינארי.
"הטכנולוגיה לא יכולה לזהות את הנטייה המינית של מישהו", אמר ג'יימס הייינגטון, מנהל דיגיטל ראשי ב-GLAAD, הארגון הגדול בעולם לתמיכה במדיה LGBTQ, אשר יחד עם HRC קרא לאוניברסיטת סטנפורד ולתקשורת להפריך את המחקר.
"מה שהטכנולוגיה שלהם יכולה לזהות הוא דפוס שמצא תת-קבוצה קטנה של הומואים ולסביות לבנים באתרי היכרויות שנראים דומים. אין לשלב בין שני הממצאים הללו".
לקוסינסקי ולוואנג ישהשיבלהודעה לעיתונות של HRC ו-GLAAD המאשימה אותם בתורם ב"שיפוט מוקדם":
הממצאים שלנו עשויים להיות שגויים. למעשה, למרות הראיות ההפוכות, אנחנולְקַווֹתשאנחנו טועים. עם זאת, ניתן להפריך ממצאים מדעיים רק על ידי נתונים ושכפול מדעיים, לא על ידי עורכי דין וקציני תקשורת בעלי כוונות טובות חסרי הכשרה מדעית.
אם הממצאים שלנו שגויים, רק השמענו אזעקת שווא. עם זאת, אם התוצאות שלנו נכונות, ההדחה המטומטמת של נציגי GLAAD ו-HRC של הממצאים המדעיים מסכנת את אותם אנשים שעבורם הארגונים שלהם שואפים לתמוך.
המחקר
המחקר, על ידי מיכל קוסינסקי וילון וואנג, נערך על מדגם זמין לציבור של 35,326 תמונות של 14,776 אנשים מאתר היכרויות אמריקאי פופולרי.
תוך שימוש ב"רשתות עצביות עמוקות" וטכנולוגיית זיהוי פנים, קוסינסקי ו-ואנג אימנו אלגוריתם לזיהוי הבדלים עדינים בתווי הפנים הקבועים והחולפים של התמונות.
כאשר הוצגו בפני זוג משתתפים, אחד הומו ואחד סטרייט, שניהם נבחרו באופן אקראי, המודל יכל להבחין ביניהם נכון ב-81% מהזמן לגברים ו-74% מהזמן לנשים.
האחוז עולה ל-91% עבור גברים ו-83% עבור נשים כאשר התוכנה בדקה חמש תמונות לאדם.
בשני המקרים הוא עלה בהרבה על שופטים אנושיים, שהצליחו לנחש מדוייק רק ב-61% מהמקרים לגברים ו-54% לנשים.
קוסינסקי ו-ואנג ביססו את המודל שלהם עלתיאוריית ההורמונים לפני הלידה (PHT).
ייצוג, תיוג והטיה גזעית
מלבד הנושא האתי של כריית נתונים מאתרי היכרויות ציבוריים, המחקר מעלה מיד שאלות של ייצוג ותיוג.
קודם כל, הדו"ח לא בחן אנשים שאינם לבנים, הוא הניח שיש רק שתי נטיות מיניות - הומואים וסטרייטים - ואינו מתייחס לאנשים דו מיניים.
אפשר לראות באופן טבעי איך זה בקושי מייצג את קהילת הלהט"ב.
"כל המעורבים היו מתחת לגיל 40, חיו באמריקה ומוכנים לשים את עצמם (ואת העדפותיהם) בפומבי באתר אינטרנט", אומר מייקל קוק, חוקר בינה מלאכותית באוניברסיטת פלמות' העוסק במשחקים, מערכות יצירתיות ויצירתיות חישובית.ניתן למעוך.
"קבוצת האנשים הזו כנראה שונה מאוד מאנשים בקבוצות גיל שונות, במדינות שונות, בסיטואציות רומנטיות שונות".
מהירות אור ניתנת לריסוק
בעיה נוספת היא לגבי תיוג, לדברי קוק. האם הנתונים אכן מסמנים את מה שאנו חושבים שהם מתייגים?
קרדיט: אוניברסיטת סטנפורד
"הנתונים קיבצו אנשים על סמך האם הם אמרו שהם מחפשים 'גברים' או 'נשים' באפליקציית ההיכרויות", הוא אומר.
"אז זה מפשט מאוד את ספקטרום המגדר והמיניות שאנשים נמצאים בו בחיים האמיתיים, וזה גם אומר שזה מוחק מידע כמו ביסקסואליות, א-מיניות ואנשים שעדיין לא בטוחים או סגורים בהעדפותיהם המיניות".
דנה פולטין-ראובן, קצינת טכנולוגיה בקבוצת ההסברה Privacy International, הולכת אפילו רחוק יותר ואומרת שהמחקר "מסוכן", שכן אמיתותו הנתפסת "מאיימת על זכויותיהם ובמקרים רבים על חייהם של להט"בים החיים בדיכוי".
"תכנון המחקר מניח הנחות מרומזות לגבי הנוקשות של הבינארי המיני והמגדרי, בהתחשב בכך שאלו עם זהות מגדרית לא בינארית או נטייה מינית לא נכללו", אומר פולטין-ראובן.
ואז יש את הנושא של הטיה גזעית. הרבה חוקרי בינה מלאכותית הם לבנים והרבה מערכי נתונים צילומיים נוטים להיות גם מלאים בפרצופים לבנים, מסכימים קוק ופולטין-ראובן.
לאחר מכן חוקרים נוטים להסיק מסקנות ולהכשיר מערכות רק על הפרצופים הללו, והמחקר "לעיתים קרובות אינו מועבר כלל לאנשים שהמראה שלהם עשוי להיות שונה", אומר קוק.
"על ידי הכללת רק תמונות של אנשים לבנים, המחקר לא רק שאינו ישים אוניברסלי, אלא גם מתעלם לחלוטין מי יעמוד בפני האיום החמור ביותר מיישום זה של זיהוי פנים, שכן להט"ב החיים תחת משטרים דיכויים נוטים להיות אנשים צבעוניים ", מוסיפה פולטין-ראובן.
קרדיט: אוניברסיטת סטנפורד
קוסינסקי ו-ואנג הכירו בחלק מהמגבלות של המחקר.
לדוגמה, הם ציינו ששיעור הדיוק הגבוה אינו אומר שניתן לזהות 91% מהגברים ההומואים באוכלוסייה מסוימת, שכן הוא חל רק כאשר ידוע שאחת משתי התמונות המוצגות שייכת לאדם הומו.
באופן טבעי, בעולם האמיתי שיעור הדיוק יהיה נמוך בהרבה, כפי שהראתה הדמיה של מדגם של 1,000 גברים עם לפחות חמישה תצלומים.
במקרה זה, המערכת בחרה את 100 הגברים בעלי הסבירות הגבוהה ביותר להיות הומואים, אך רק 47 מהם היו באמת.
הייינגטון מ-GLAAD אמר שהמחקר "אינו מדע או חדשות, אלא הוא תיאור של תקני יופי באתרי היכרויות שמתעלם מחלקים עצומים של קהילת הלהט"ב, כולל אנשים צבעוניים, טרנסג'נדרים, אנשים מבוגרים ואנשי להט"ב אחרים שלא. לא רוצה לפרסם תמונות באתרי היכרויות."
בעיות פרטיות
קוסינסקי ו-ואנג אמרו שהם כל כך מוטרדים מהתוצאות שהם השקיעו זמן רב בבחינת האם "צריך לפרסם אותם בכלל".
אבל הם הדגישו שלממצאים שלהם יש "השלכות חמורות על פרטיות", שכן עם מיליוני תמונות פנים הזמינות בפומבי בפייסבוק, אינסטגרם ומדיה חברתית אחרת, כל אחד יכול למעשה לצאת למסע גילוי מיני ללא הסכמתם של האנשים.
"לא רצינו לאפשר את עצם הסיכונים שמהם אנו מזהירים", אמרו.
עם זאת, זה בדיוק מה שהם עשו לפי HRC.
"תארו לעצמכם לרגע את ההשלכות הפוטנציאליות אם נעשה שימוש במחקר הפגום הזה כדי לתמוך במאמצים של משטר אכזרי לזהות ו/או לרדוף אנשים שהם האמינו שהם הומוסקסואלים", אמר מנהל החינוך והמחקר הציבורי של HRC, אשלנד ג'ונסון.
החוקרים טענו בצורה מונעת במחקר שממשלות ותאגידים כבר משתמשים בכלים כאלה, ואמרו שהם רוצים להזהיר את קובעי המדיניות וקהילות הלהט"ב מפני הסיכונים העצומים שעומדים בפניהם אם הטכנולוגיה הזו תיפול לידיים הלא נכונות.
תמונות פנים של מיליארדי אנשים מאוחסנות בארכיונים דיגיטליים ומסורתיים, כולל פלטפורמות היכרויות, אתרי שיתוף תמונות ומאגרי מידע ממשלתיים.
תמונות פרופיל בפייסבוק, לינקדאין וגוגל פלוס הן ציבוריות כברירת מחדל. ניתן להשתמש במצלמות במעגל סגור ובסמארטפונים כדי לצלם תמונות של פנים של אחרים ללא רשותם.
לדברי קוק, זוהי למעשה נקודת מפתח שכן הנקודה העיקרית עם המסמכים הללו, יותר מאשר אימות אם הם מדויקים או לא, היא האם אנשים אכן ישתמשו בהם.
"אם עסקים רצו להשתמש בזה כדי לסרב שירות לאנשים הומוסקסואלים, זה לא משנה אם המערכת עובדת או לא - זה עדיין שגוי ומפחיד", אמר קוק.
"הדבר שהופך את הטכנולוגיה הזו למפחידה באמת הוא של-AI ולמחשבים יש הילה של מהימנות לגביהם - זה מרגיש מדעי ומקובל לעשות משהו שנאה דרך מחשב."
גלאד וה-HRC אמרו שהם שוחחו עם אוניברסיטת סטנפורד חודשים לפני פרסום המחקר - אך לא היה מעקב אחר חששותיהם.
הם סיכמו: "בהתבסס על המידע הזה, כותרות תקשורת שטוענות שבינה מלאכותית יכולה לדעת אם מישהו הוא הומו על ידי הסתכלות על תמונה אחת של הפנים שלך אינן מדויקות עובדתית".
עדכון: 28 במאי 2020, 12:51 PDTגרסה קודמת של הסיפור הזה התייחסה לקצין הדיגיטל הראשי של GLAAD כג'ים הלורן. כל ההפניות עודכנו לג'יימס הייינגטון לבקשת GLAAD מאז שג'יימס שינה את שם משפחתו לאחר שהתחתן. ג'יימס כבר לא עובד ב-GLAAD, אבל הוא עבד בזמן ההוצאה לאור.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.