לבינה מלאכותית יש כבר זמן רב בעיות עם הטיות גזעיות ומגדריות. קרדיט: Mashable/Bob Al-Greene
המאבק לשוויון גזעי חייב להישמע.לְהַגבִּירהיא הסדרה שלנו המוקדשת להעלאת המודעות, להדגיש נושאים ולנקיטת פעולה.
בעודו בעל חייםAIהוא מושג מופרך לחלוטין, זה (עדיין) לא מציאות. אבל AI גזעני וסקסיסטי? למרבה הצער, מאוד מציאות.
ב אראיון אחרון עםחוטי, המהנדס והכומר הנוצרי המיסטיקן בלייק למוין דן מדוע הוא מאמין שמודל השפה הגדול של גוגל בשם LaMDA הפך לרגיש, עם נשמה. אמנם הטענה הזו הייתההופרכה על ידי רבים בקהילת הבינה המלאכותיתוכתוצאה מכך Lemoine הוצא לחופשה מנהלית בתשלום על ידי Google, Lemoine גם הסביר כיצד החל לעבוד על LaMDA.
המסע שלו עם ה-AI התחיל בבעיה הרבה יותר אמיתית: בחינת המודל להטיות מזיקות ביחס לנטייה מינית, מגדר, זהות, אתניות ודת.
"אני לא מאמין שקיים דבר כזה כמו מערכת חסרת פניות", אמר למואיןחוטי."השאלה הייתה האם ל-למד"א יש או אין מההטיות המזיקות שרצינו לחסל. התשובה הקצרה היא כן, מצאתי הרבה".
Lemoine גם הסביר שצוות גוגל עשה עבודה טובה בתיקון ה"באגים" המוטים הללו, עד כמה שהוא יכול לדעת. כשנשאל אם למד"א הראה נטיות גזעניות או סקסיסטיות, ענה למוין בזהירות, והצהיר שהוא "לא ישתמש במונח הזה". במקום זאת, הוא טוען "השאלה האמיתית היא האם הסטריאוטיפים שהוא משתמש בו יאושרו על ידי האנשים שעליהם [למד"א] מדבר".
ההיסוס של Lemoine לתייג את "הבאגים" של LaMDA כגזעניים או סקסיסטיים בעליל מדגישה קרב מתמשך בתוך קהילת הבינה המלאכותית, שבה רבים התבטאו על הסטריאוטיפים המזיקים שמערכות בינה מלאכותית מנציחות לעתים קרובות. אבל כאשר אלו שכן מדברות על הנושאים האלה הן בעיקר נשים שחורות - והנשים האלה מפוטרות לאחר מכן מחברות כמו גוגל - רבים מרגישים שזה נופל על גברים בטכנולוגיה כמו Lemoine להמשיך להפנות את תשומת הלב לבעיות ההטיה הנוכחיות של AI, ולא לבלבל את טווח הקשב של החוקרים והציבור עם טענות על תחושת בינה מלאכותית.
"אני לא רוצה לדבר על רובוטים בעלי חיים, כי בכל קצוות הספקטרום יש בני אדם שפוגעים בבני אדם אחרים, ושם אני רוצה שהשיחה תהיה ממוקדת", אמרה תמנית לשעבר של צוות ה-Ethical AI של Google. גברו לחוטי.
מהירות אור ניתנת לריסוק
בינה מלאכותית מתמודדת עם היסטוריה ארוכה של סטריאוטיפים מזיקים, וגוגל אינה חדשה או לא מודעת לנושאים הללו.
בשנת 2015, ג'קי אלסינה צייץ על תיוג של תמונות Google80 תמונות של גבר שחור לאלבום שכותרתו "גורילות".Google Photos למד כיצד לעשות זאת באמצעות רשת עצבית, שניתחה סטים עצומים של נתונים על מנת לסווג נושאים כמו אנשים וגורילות - ברור, שגוי.
זו הייתה האחריות של מהנדסי גוגל לוודא שהנתונים המשמשים לאימון מערכת הצילום של AI היו נכונים ומגוונים. וכשזה נכשל, באחריותם לתקן את הבעיה. על פי הניו יורק טיימס, התגובה של גוגל הייתה לבטל את "גורילה" כקטגוריית תמונות, במקום להכשיר מחדש את הרשת העצבית שלה.
גם חברות כמו מיקרוסופט, יבמ ואמזון מתמודדות עם אותן בעיות בינה מלאכותית מוטות. בכל אחת מהחברות הללו, ה-AI היה פעילזיהוי פניםהטכנולוגיה נתקלת בשיעורי שגיאות גבוהים משמעותית בעת זיהוי המין של נשים בעלות גווני עור כהים יותר מאשר בהשוואה לזיהוי מין של עור בהיר יותר, כפי שדווח על ידיפִּי.
בשנת 2020, גברופרסם מאמרעם שישה חוקרים נוספים, שארבעה מהם עבדו גם בגוגל, מתחו ביקורת על מודלים של שפות גדולות כמו LaMDA ועל נטייתם לתוך מילים על סמך מערכי הנתונים שהם לומדים מהם. אם מערכי הנתונים האלה מכילים שפה מוטה ו/או סטריאוטיפים גזעניים או סקסיסטיים, אזי AI כמו LaMDA יחזרו על ההטיות הללו בעת יצירת שפה. Gebru גם מתח ביקורת על מודלים של אימון שפות עם מערכי נתונים גדולים יותר ויותר, המאפשרים ל-AI ללמוד לחקות שפה אפילו טוב יותר ולשכנע קהלים של התקדמות ותחושות, כפי שלמוין נפל.
לאחר מחלוקת על המאמר הזה, גברו אומרת שגוגל פיטרה אותה בדצמבר 2020 (החברה טוענת שהיא התפטרה). כמה חודשים לאחר מכן, גוגל פיטרה גם את ד"ר מרגרט מיטשל, מייסדת צוות הבינה המלאכותית האתית, שותפה למחברת העיתון, ומגנה של גברו.
למרות מחויבות כביכול ל"בינה מלאכותית אחראית", גוגל עדיין מתמודדת עם בעיות אתיות בינה מלאכותית, ולא משאירה זמן לטענות בינה מלאכותית.
אחרי הדרמה והודתה בפגיעה במוניטין שלה, גוגל הבטיחה להכפיל את צוות המחקר האחראי של AI ל-200 איש. ולפיקוד מחדש, המנכ"ל סונדאר פיצ'אי התחייב על תמיכתו במימון פרויקטי AI אתיים נוספים. ועדיין, הקבוצה הקטנה של אנשים שעדיין נמצאים בצוות הבינה המלאכותית האתית של גוגל מרגישה שהחברה עלולה לא להקשיב עוד לרעיונות הקבוצה.
לאחר עזיבתם של Gebru ומיצ'ל בשנת 2021, שני חברי צוות AI אתיים בולטים עזבו שנה לאחר מכן.אלכס האנה ודילן בייקר עזבו את גוגללעבוד עבור מכון המחקר של Gebru, DAIR, או מחקר בינה מלאכותית מבוזרת. הצוות הקטן ממילא גדל עוד יותר ואולי מצביע על הסיבה לכך שלמואין, שאינו בצוות ה-AI האתי, התבקש להיכנס ולחקור את ההטיות של LaMDA מלכתחילה.
ככל שיותר ויותר פונקציות חברתיות פונות למערכות בינה מלאכותית בהתקדמותן, חשוב מתמיד להמשיך ולבחון כיצד הבסיס של הבינה המלאכותית משפיעה על תפקודיה. בחברה ממילא גזענית וסקסיסטית, אנחנו לא יכולים להרשות לעצמנו לקבל את שלנומערכות המשטרה,שיטות תחבורה,שירותי תרגום, ועוד מסתמכים על טכנולוגיה שגזענות וסקסיזם מובנים ביסודותיה. וכפי שגברו מציינת, כאשר (בעיקר) גברים לבנים בטכנולוגיה בוחרים להתמקד בנושאים כמו תחושת בינה מלאכותית ולא בהטיות הקיימות הללו - במיוחד כשזו הייתה המטרה המקורית שלהם, כמו המעורבות של Lemoine עם LaMDA - ההטיות ימשיכו להתרבות, מוסתר מתחת לרעש של חוש הרובוט.
"קיים פער גדול למדי בין הנרטיב הנוכחי של בינה מלאכותית לבין מה שהוא יכול לעשות בפועל", אמר ג'יאדה פיסטילי, אתיקאי ב-פנים מחבקות, לחוטי."הנרטיב הזה מעורר פחד, פליאה והתרגשות בו זמנית, אבל הוא מבוסס בעיקר על שקרים כדי למכור מוצרים ולנצל את ההייפ".
Jennimai הוא כתב טכנולוגי ב- Mashable המסקר את התרבות הדיגיטלית, המדיה החברתית וכיצד אנו מתקשרים עם הטכנולוגיה היומיומית שלנו. היא גם מארחת את Mashable'sSnapchat Discoverערוץ וTikTok, כך שהיא משקיעה יותר מדי זמן בגלילה ב-FYP ובמחשבה על מכשירי אייפון.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.