בדיקת עובדות אוטומטית לחלוטין לא תהיה הידיים הבלתי נראות שיצילו אותנו מטרולים ודיסאינפורמציה. קרדיט: Mashable / ויקי לטה
מגיפת הקורונה, מחאה נגמרה מִשׁטָרָה הרג וגזענות מערכתית, ובחירות שנויות במחלוקת יצרו את הסערה המושלמת עבורמֵידָע מְפוּבּרָק ברשתות החברתיות.
אבל אל תצפה שבינה מלאכותית תציל אותנו.
האחרון של טוויטרהחלטה לדגל אדוםהטענות הכוזבות של הנשיא דונלד טראמפ לגבי פתקי הצבעה בדואר חידשו מחדש את הדיון בשאלה האם פלטפורמות מדיה חברתית צריכות לבדוק פוסטים.
הנשיא הציע שטוויטר "מתערבת" בבחירות 2020 על ידי הוספת תווית שעודדה את הקוראים "לקבל את העובדות על פתקי הצבעה בדואר".
ייתכן שהציוץ נמחק
בתגובה, מנהיגי טכנולוגיה בחנו את הרעיון של שימוש בטכנולוגיית קוד פתוח ואוטומטית לחלוטין לבדיקת עובדות כדי לפתור את הבעיה.
ייתכן שהציוץ נמחק
עם זאת, לא כולם התלהבו כל כך.
ייתכן שהציוץ נמחק
ייתכן שהציוץ נמחק
"אני מצטער להישמע משעמם ולא מדע בדיוני לגבי זה, אבל אני מרגיש שזה פשוט עתיד שקשה לי מאוד לראות", אנדרו דודפילד, ראש מחלקת בדיקת עובדות אוטומטית בבריטניה. מלכ"ר עצמאיעובדה מלאה, אמר. "זה דורש כל כך הרבה ניואנסים וכל כך הרבה תחכום שלדעתי הטכנולוגיה לא באמת מסוגלת לעשות את זה בשלב זה."
בעובדה המלאה, אמקבל המענקשל Google AI לטובות חברתיות, תוספי אוטומציה - אך אינם מחליפים - את תהליך בדיקת העובדות המסורתי.
היכולת של אוטומציה לסנתז כמויות גדולות של מידע סייעה לבודקי עובדות להסתגל לרוחב ולעומק של סביבת המידע המקוונת, אמר דודפילד. אבל כמה משימות - כמו לפרש עובדות מאומתותבהקשר, או הסבר על אזהרות ודקויות לשוניות שונות - כיום משרתים טוב יותר עם פיקוח אנושי.
"אנחנו משתמשים בכוח של AI... עם מספיק ביטחון שנוכל לשים את זה מול בודק עובדות ולהגיד, 'נראה שזה התאמה'", אמר דודפילד. "אני חושב לקחת את זה לקיצוניות של אוטומציה של העבודה הזו - זה באמת דוחף דברים כרגע."
סלואן כאן, סוציולוג החוקר אי-שוויון בעיצוב בינה מלאכותית באוניברסיטת ניו יורק, מודאג גם הוא שבדיקת עובדות אוטומטית לחלוטין תעזור לחזק את ההטיות. היא מצביעה על טוויטר שחור למשל, שם נמצאת לעתים קרובות שפת דיבורמסומן בצורה לא פרופורציונליתכפוגעני על ידי AI.
לשם כך, גם סלואן וגם דודפילד אמרו שחשוב לשקול את אופי הנתונים שאליהם מתייחס אלגוריתם.
"AI מקודד מידע שאתה נותן לו, כך שאם אתה נותן למערכת מידע מוטה, הפלט שהוא מייצר יהיה מוטה", הוסיף דודפילד. "אבל התשומות מגיעות מבני אדם. אז הבעיה בדברים האלה, בסופו של דבר, היא לוודא שיש לך את הנתונים הנכונים שנכנסים, ושאתה כל הזמן בודק את הדברים האלה".
מהירות אור ניתנת לריסוק
"אם אתה נותן למערכת מידע מוטה, הפלט שהיא מייצרת יהיה מוטה".
אם הניואנסים האלה לא יתגלו במערכות אוטומטיות לחלוטין, מפתחים יכולים ליצור אי-שוויון מהונדסים ש"פועלים במפורש להגברת היררכיות חברתיות המבוססות על גזע, מעמד ומגדר."תלביש את בנימיןכותבת בספרה פרופסור ללימודי אפרו-אמריקאים באוניברסיטת פרינסטוןמרוץ אחרי טכנולוגיה. "אפליה ברירת המחדל צומחת מתהליך עיצוב שמתעלם ממחסומים חברתיים".
אבל מה קורה כשהעסק מפריע לתהליך העיצוב? מה קורה כשפלטפורמות מדיה חברתית בוחרות רק לעשות זאתלְהַעֲסִיקטכנולוגיות אלובאופן סלקטיבילשרת אתהאינטרס של לקוחותיה?
קייטי קלבר, מנהלת המרכז לאתיקה עיתונאית באוניברסיטת ויסקונסין - מדיסון, אמרה שהתמריצים הכלכליים להגביר את המשתמשים והמעורבות מודיעים לעתים קרובות כיצד חברות מתייחסות לאחריות חברתית תאגידית.
"אם היו לך 100 מפרסמי ההוצאה המובילים בעולם אומרים, 'נמאס לנו ממיתוסים ודיסאינפורמציה בפלטפורמה שלך ואנחנו מסרבים להפעיל את התוכן שלנו לצדה', אתה יכול להמר שהפלטפורמות האלה יעשו משהו בנידון", קלבר. אמר.
אבל הבעיה היא שלעתים קרובות המפרסמים הם אלההפצת דיסאינפורמציה. קח את פייסבוק, אחד העובדות המלאותשותפים, למשל. המדיניות של פייסבוקלִפְטוֹרחלק ממנוהמפרסמים הגדולים ביותר- פוליטיקאים וארגונים פוליטיים - מבדיקת עובדות.
והאהוב על מארק צוקרברגהֲגָנָהנגד מבקרים? האתיקה שלשוק הרעיונות- האמונה שהאמת והרעיונות המקובלים ביותר ינצחו בתחרות חופשית של מידע.
אבל "הכוח אינו מחולק באופן שווה" בשוק, אמר קלבר.
פייסבוקממצא פנימיראה "תשתית גדולה יותר של חשבונות ומפרסמים בימין הקיצוני מאשר בשמאל הקיצוני", למרות זאתיוֹתֵרהאמריקאים נוטים לשמאל מאשר לימין.
ופעם אחר פעם, פייסבוק הגבירה תוכן בתשלום - גם כשהמידע קייםמטעה בכוונה, או מתי זהמטרותאמריקאים שחורים.
"האתיקה שימשה כמסך עשן", אמר סלואן. "מכיוון שהאתיקה אינה ניתנת לאכיפה על פי חוק... היא אינה מותאמת להקשרים הפוליטיים, החברתיים והכלכליים הרחב יותר. זה מונח מעורפל בכוונה שמקיים מערכות כוח מכיוון שמה שהוא אתי מוגדר על ידי בעלי הכוח".
פייסבוקיודעשהאלגוריתם שלו מקטב משתמשים ומגביר שחקנים גרועים. אבל זה גםיודעשהתמודדות עם נושאים אלו עלולה להקריב את מעורבות המשתמש - ולכןהכנסות ממודעות, שמהווה 98 אחוז מההכנסות העולמיות של החברה והסתכמו בכמעט 69.7 מיליארד דולר רק ב-2019 בלבד.
אז זה בחר לא לעשות כלום.
בסופו של דבר, מאבק בדיסאינפורמציה ובהטיה דורש יותר מסתםדאגות ביצועיותעל סנסציוניות ומחויבויות הגנתיות לבנות"מוצרים שמקדמים צדק גזעי." וזה דורש יותר מאשר הבטחות שבינה מלאכותית בסופו של דבר תתקן הכל.
זה דורש מחויבות אמיתית להבין ולהתייחס לאופן שבו עיצובים, מוצרים ותמריצים קיימים מנציחים מידע מוטעה מזיק - ואומץ מוסרי לעשות משהו בנידון מול התנגדות פוליטית.
"מוצרים ושירותים שמציעים תיקונים להטיה חברתית... עדיין עלולים לשחזר, או אפילו להעמיק, תהליכים מפלים בגלל הדרכים הצרות שבהן 'הוגנות' מוגדרת ומתבצעת", כותב בנג'מין.
האינטרסים של מי מיוצגים מתחילת תהליך העיצוב, ושל מי הוא מדכא? מי זוכה לשבת ליד השולחן, וכמה בשקיפות יכולות חברות מדיה חברתית לתקשר את התהליכים האלה?
עד חברות מדיה חברתיתלְבַצֵעַלתיקון הטיות קיימות, פיתוח טכנולוגיות בדיקת עובדות אוטומטיות לחלוטין לא נראה כמו התשובה לאינפדמיה.
Haidee Chu הוא עמית עריכה המסקר טכנולוגיה מניו יורק. היא אוהבת לכתוב על האופן שבו טכנולוגיה מצטלבת עם אמנות, עיצוב, תרבות, חברה והאינטרס הציבורי.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.