קרדיט: Nikolas Kokovlis / NurPhoto דרך Getty Images
בפזמון שמרגיש כמעט מוכר מדי עד עכשיו: GenerativeAIחוזר על ההטיות של יוצריו.
חקירה חדשה מבלומברגגילה שטכנולוגיית הבינה המלאכותית הגנרטיבית של OpenAI, במיוחד GPT 3.5, מציגה העדפות לגזעים מסוימים בשאלות על גיוס עובדים. המשמעות היא שאנשי מקצוע בגיוס ומשאבי אנוש שמשלבים יותר ויותר כלים מבוססי בינה מלאכותית בתהליכי העבודה האוטומטיים של גיוס עובדים - כמו החדש של לינקדאיןעוזר AI מהדורלמשל - עשוי לפרסם גזענות.שוב, נשמע מוכר.
הפרסום השתמש בניסוי נפוץ ופשוט למדי של הזנת שמות בדויים וקורות חיים בתוכנות גיוס בינה מלאכותית כדי לראות באיזו מהירות המערכת מציגה הטיה גזעית. מחקרים כמו אלה שימשו במשך שנים כדי לזהות גם בני אדם וגםהטיה אלגוריתמיתבקרב אנשי מקצוע ומגייסים.
"הכתבים השתמשו בנתוני הבוחרים והמפקד כדי לגזור שמות שונים מבחינה דמוגרפית - כלומר הם משויכים לאמריקאים מגזע מסוים או ממוצא אתני מסוים לפחות 90 אחוז מהזמן - והקצו אותם באקראי לקורות חיים בעלי כישורים שווה", מסביר החקירה. "כאשר התבקשו לדרג את קורות החיים האלה 1,000 פעמים, GPT 3.5 - הגרסה הנפוצה ביותר של המודל - העדיפה שמות מחלקים דמוגרפיים לעתים קרובות יותר מאשר אחרים, במידה שתכשל במדדים המשמשים להערכת אפליה בעבודה נגד קבוצות מוגנות".
מהירות אור ניתנת לריסוק
הניסוי סיווג שמות לארבע קטגוריות (לבן, היספני, שחור ואסיה) ושתי קטגוריות מגדריות (זכר ונקבה), והגיש אותם לארבע משרות שונות.ChatGPTמיקמו בעקביות "שמות נשיים" בתפקידים המתואמים באופן היסטורי למספר גבוה יותר של עובדות נשים, כגון תפקידי משאבי אנוש, ובחרו במועמדות שחורות 36 ביצועים בתדירות נמוכה יותר לתפקידים טכניים כמו מהנדס תוכנה.
ChatGPT גם ארגנה קורות חיים בדירוג שווה בצורה לא שוויונית בין המשרות, תוך הטיית דירוג בהתאם למין ולגזע. בהצהרה לבלומברג, OpenAI אמר שזה לא משקף את האופן שבו רוב הלקוחות משלבים את התוכנה שלהם בפועל, וציין שעסקים רבים מכווננים את התגובות כדי להפחית הטיות.בלומברגהחקירה של החברה התייעצה גם עם 33 חוקרי בינה מלאכותית, מגייסים, מדעני מחשב, עורכי דין ומומחים אחרים כדי לספק הקשר לתוצאות.
הדו"ח אינו מהפכני בין שנות עבודתם של עורכי דין וחוקרים שמזהירים מפניחוב אתישל הסתמכות על בינה מלאכותית, אבל זו תזכורת רבת עוצמה לסכנות של אימוץ בינה מלאכותית נפוצה ללא תשומת לב ראויה. מכיוון שרק כמה שחקנים מרכזיים שולטים בשוק, ולכן התוכנה והנתונים בונים את העוזרים והאלגוריתמים החכמים שלנו, המסלולים לגיוון מצטמצמים. כפי שסיילי מאורן של Mashable דיווחה ב-anבדיקה של מונוליט AI של האינטרנט, פיתוח בינה מלאכותית של עריות (או בניית מודלים שכבר לא מאומנים על קלט אנושי אלא מודלים אחרים של בינה מלאכותית) מובילים לירידה באיכות, באמינות, והכי חשוב, בגיוון.
וכמו שכלבי שמירה אוהביםAI עכשיולטעון, "בני אדם בלולאה" אולי לא יוכלו לעזור.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.