מזכויות אזרח להטיה ליברלית, פייסבוק *ייתכן* עוברת מתחת למיקרוסקופ. קרדיט: GETTY IMAGES/JUSTIN SULLIVAN
אחרי האחרוןפארסה של שימוע בקונגרסלגבי "הטיה אנטי-שמרנית" במדיה החברתית, פייסבוק רוצה שהעולם ידע שהיא עדיין לוקחת את הנושא לכאורה הזה ברצינות.
פייסבוק שיתפה ביום רביעי שהיא תעבור סקירה יסודית של הטיה פוליטית, בהובלת הסנאטור הרפובליקני לשעבר ג'ון קיל וחברת הלובינג שלו, קובינגטון וברלינג. לְפִיאתר האינטרנט של המשרד, קיל הוא מומחה בסיוע לתאגידים לנווט במדיניות פנים ובינלאומית. גם צוות החשיבה השמרני Heritage Foundation ייקח חלק בסקירה העצמאית.
בנוסף, מומחי זכויות אזרח יערכו ביקורת על הפרות זכויות אזרח המונצחות על ידי הפלטפורמה של פייסבוק. הנושאים הללו נבעודיווחים על מיקוד מודעות מוטה גזעיתלדיור ועבודה בפייסבוק. המנהלת לשעבר של המשרד המחוקקים של ה-ACLU, לורה מרפי, תוביל את החקירה לצד משרד עורכי דין מנוסה בתחום הדיור, הלוואות, תעסוקה ומגורים ציבוריים: Relman, Dane & Colfax.
"אנחנו מצפים לעבוד עם פייסבוק על פרויקט הביקורת החשוב הזה", אמר נציג Relman, Dane & Colfax ל-Mashable.
שתי הביקורות הגיעו מרצון מפייסבוק.
"קבלת משוב מבחוץ יעזור לנו להשתפר לאורך זמן - כדי להבטיח שנוכל לשרת את האנשים בפייסבוק בצורה יעילה יותר", אמר סגן נשיא למדיניות גלובלית בפייסבוק, ג'ואל קפלן, בהצהרה שנשלחה בדוא"ל ל-Mashable.
ייתכן שהציוץ נמחק
ייתכן שהציוץ נמחק
ההודעה על הביקורות הגיעה שעות לפני היום השני של כנס המפתחים של פייסבוק, F8. ממוקמת בתוך דיון רחב יותר על בינה מלאכותית, מדענית המחקר של פייסבוק איזבל קלומן התמקדה במיוחד בחשיבות האתיקה והגיוון בעת יצירת כלי בינה מלאכותית.
Mashable Top Stories
"AI הוא לא בדיוק הילד שלנו, אבל זו האחריות שלנו", אמרה קלאומן במהלך המצגת המרכזית שלה. "אז בואו כולנו נעבוד יחד כדי ללמד את זה."
Kloumann הכריז על מערכת ביקורת אלגוריתמית בשם "Fairness Flow". על פי הדיווחים, המערכת מנתחת אלגוריתמים (במיוחד בפרסום דרושים), לצורך הטיה, כדי להבטיח ששוויון הזדמנויות קיים באוטומציה של פייסבוק.
"המאמצים שלנו לחסל הטיה אלגוריתמית ופריסה חסרת אחריות של בינה מלאכותית כוללים בחינה מדוקדקת של הקוד שאנו מייצרים וכן באנשים שאנו שוכרים כדי לכתוב, לנהל ולאשר את מערכות הבינה המלאכותית הללו", כתבה פייסבוק ב-בלוג F8.
פייסבוק פועלת להרחיב את זרימת ההגינות מעבר למודעות הגשת מועמדות לעבודה, כך שניתן יהיה ליישם את מבקר האלגוריתמים על פני מוצרים.
איזבל קלומן מדברת על האתיקה של AI ב-F8. קרדיט: צילום מסך: פייסבוק
יוזמה זו וביקורת זכויות האזרח באים לאחר מכןמספר דוחותשפייסבוק אפשרה למפרסמים למקד דיור ומקומות עבודה בדרכים שהוציאו מקבוצות מיעוט; מהי "פלטפורמת מודעות ממוקדות" של פלטפורמת מדיה חברתית אחת היא "אפליה בדיור" של עורך דין לזכויות אזרח.
מערכת הביקורת האלגוריתמית בשילוב עם הביקורת הבלתי תלויה החיצונית יכולה לייצג שינוי משמעותי לבעיה אמיתית.
זה בניגוד מוחלט ל-(מְפוּקפָּק) טענות הטיה שמרניות, אשר Mashableטעןמייצגים אי הבנה בסיסית של אופן פעולת האלגוריתם של פייסבוק.מציינת ThinkProgressשהסקירה ההטיה הזו תנוהל על ידי צוות חשיבה שמרני וזרוע לובינג רפובליקנית - ללא נוכחות של ליברלים כלשהם. Mashable פנתה לחברת הלובינג כדי לשאול אותם איך ולמה היא נבחרה, ואיזה ניסיון יש לה בקביעת הטיה. אנו נעדכן את הסיפור הזה אם וכאשר נשמע.
ההאשמות על ההטיה נובעות מכך שפייסבוק מסמנת חלק מהתוכן השמרני כלא הולם או פוגעני, ועל כך אנשי הקונגרס פגעו במארק צוקרברג.עדות הקונגרס. צוקרברג ופייסבוק הצהירו שסימון זה נעשה בטעות. ועדת המשפט לא השיבה את בקשתה של מאשבל להגיב בשאלה האם זה יספק את חששותיה בעניין זה.
למרות שהתהליכים האוטומטיים של פייסבוק בנוגע להטיה גזעית נמצאים בבדיקה ברורה, לפחות פנימית עם Fairness Flow, פייסבוק אמרה שמוקדם מדי לומר אם סקירת ההטיה האנטי-שמרנית תכלול בחינה של מערכות הסימון האוטומטיות שלה.
עם שתי הבעיות, נראה שפייסבוק מוכנה לשים את עצמה תחת המיקרוסקופ כדי לשפר את השוויון בפלטפורמה שלה. אבל היעילות של הביקורות תלויה כולן בכמה לגבי האלגוריתם, למידת המכונה והאוטומציה שלה פייסבוק באמת מוכנה לשתף. בלי השקיפות הזו, רק נשאר לנו לסמוך על פייסבוק, בלי ראיות. ואולי האמון הזה לא משהו שפייסבוק הרוויחה.
רחל קראוס היא כתבת Mashable Tech המתמחה בבריאות ואיכות חיים. היא ילידת LA, בוגרת NYU j-school, וכותבת פרשנות תרבותית ברחבי האינטרנט.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.