לתוכנית AI חדשה נגד הטרדה יש ​​90% הצלחה

יאהו פיתחה אלגוריתם בינה מלאכותית שלדבריה יכול לזהות כהלכה עד 90 אחוז מהתגובות הפוגעניות באינטרנט, מה שגורם לה להתעלות על "מתקדם" אחריםלמידה עמוקה-מְבוּסָסאלגוריתמים, על פי אדִוּוּחַעל ידי מפתחי האלגוריתם.

"למרות שזיהוי אוטומטי של שפה פוגענית באינטרנט הוא נושא ומשימה חשובים, הקוד [זיהוי שימוש לרעה] לא היה מאוחד במיוחד, ולכן להאטת ההתקדמות... [התעללות] יכולה להיות השפעה עמוקה על הנימוס של קהילה או על חוויית המשתמש ", כתבו המפתחים.

ראה גם:

האלגוריתם השתמש בשילוב של למידת מכונה וזיהוי התעללות במיקור המונים כדי לסרוק את מדור התגובות של Yahoo News ו-Finance.

נכון לעכשיו, רוב גלאי השפה הפוגענית הם מערכות מבוססות מילות מפתח. הבעיה היא שמתעללים עשויים להימנע ממילים מסוימות כדי להימנע מהפילטרים או להמציא סלנג חדש. בנוסף, מערכות אלו גרועות בקריאה לצורך הקשר או סרקזם.

יאהו, לעומת זאת, העמיקה מעט והצליחה לעקוב אחר התגובות לפי אורך ההערות והמילים, מספר סימני הפיסוק, כתובות אתרים ואותיות גדולות. הוא גם עקב אחר שימוש ב"מילות נימוס", פעלים מודאליים (כמו "יכול", "היה" או "צריך", שיכולים להצביע עלגידוראו דובר בטוח) ו"עלבון ושונאי מילים ברשימה השחורה". בסך הכל, האלגוריתם עלה על הגלאים הישנים של יאהו בכמעט10 אחוז.

בסך הכל, האלגוריתם עלה על הגלאים הישנים של יאהו בכ-10 אחוזים

גם עובדי יאהו שעברו הכשרה מיוחדת הסתכלו על אותן הערות ודירגו אותן כפוגעניות או לא, מה שעזר לאמן את האלגוריתם לחפש התעללות מרומזת. (מסד הנתונים המוער של מה שסומן כפוגעני יהיה זמין באינטרנט בקרוב ב-Yahoo Webscope.)

מהירות אור ניתנת לריסוק

יאהו סיפקה דירוגי שימוש לרעה במיקור המונים מאמזוןטורק מכניכמו כן, מה שמאפשר לכל אחד להירשם ולסנן באמצעות תמונות או שפה. המשתתפים קיבלו $0.02 עבור כל הערה שניסו לסווג כפוגענית או לא. עם זאת, האנשים הללו לא הוכשרו בזיהוי התעללות כמו העובדים של יאהו, ונמצאו גרועים בהרבה. אז אפילו עם ה-AI, השיפוט האנושי עדיין חיוני למבצע.

בסופו של דבר, התוכנית עשויה להיות מוגבלת מאוד מכיוון ששימוש לרעה עדיין מוגדר על ידי יאהו עצמה ולא על ידי המשתמש - בניגוד לגרסה החדשה של אינסטגרםאמצעים נגד הטרדה, המאפשרים למשתמשים לסנן הערות עם מילים מסוימות. ייתכן שהתוכנית גם לא תוכל למצוא חשבונות מזויפים או לסנן דרך תמונות או סרטונים פוגעניים שצורפו למשתמש, מה שקרהלסלי ג'ונס בטוויטר.

לחלק מהאתרים יש גם סטנדרטים כפולים בכל הנוגע להנחיות הקהילה שלהם. בפייסבוק, העיתונאית והפעילה הפמיניסטית האוסטרלית קלמנטין פורדצייןשהיא נחסמה בגלל שאמרה לגבר "להתבאס" בזמן שמישהו שכינה אותה "זונה חולה" לא סומן. הפוסט הזה הוסר בסופו של דבר, אבל המצב הוא דוגמה טובה לכמה ניואנסים קביעה מה פוגע ומה לא יכולה להיות.

למשל, מבקרים טוענים שגופן של נשים הוא לעתים קרובותבמשטרה שלא לצורך, צנזור תמונות עם פטמות נשים אוכתמי תקופה.

ובכל זאת, הצוות ביאהו נשאר אופטימי.

"ככל שכמות התוכן שנוצר על ידי משתמשים מקוון גדלה במהירות, יש צורך להשתמש בשיטות מדויקות ואוטומטיות כדי לסמן שפה פוגענית", כתבו. "בעבודתנו אנו עושים צעד גדול קדימה".

יש לך מה להוסיף לסיפור הזה? שתפו אותו בתגובות.