Microsoft AI chatbot Tay, הושקבשבוע שעברכניסוי ללמוד איך בני דור המילניום מדברים, הפך במהרה למבוכה עבור החברה כשפרסמהציוצים גזעניים ופוגענייםולאחר מכן הוצא במצב לא מקוון.
ביום שישי, סגן נשיא תאגידי של מחקר מיקרוסופט, פיטר ליפורסםהתנצלות והסבר להתנהגותו השגויה של טיי, ואמרה שהחברה "מצטערת עמוקות על הציוצים הפוגעניים והפוגעניים שלא בכוונה של טיי".
מיקרוסופט כבר מנהלת פרויקט דומה בסין - צ'טבוט בשם XiaoIce, המשמש יותר מ-40 מיליון אנשים. אבל ההצלחה הזו לא תורגמה היטב בארה"ב
לדברי לי, טיי עבר הרבה בדיקות כדי לוודא שדבר כזה לא יקרה, אבל "מתקפה מתואמת של תת-קבוצה של אנשים ניצלה פגיעות בטאי" בתוך 24 השעות הראשונות שלה באינטרנט.
מהירות אור ניתנת לריסוק
לי אמר שהחברה מטפלת ב"פגיעות הספציפית" שהובילה למתקפה, מבלי להיכנס לפרטים.
רבים מהציוצים הפוגעניים של טיי היו רק הדים למה שמשתמשים אחרים אמרו בטוויטר (ראה דוגמה למטה).
עם זאת, בחלק מהמקרים נראה שטאי פרסם ציוצים פוגעניים - שהגרוע שבהם נמחק כעת - בכוחות עצמו.
"טיי עכשיו במצב לא מקוון וננסה להחזיר את טיי רק כשאנחנו בטוחים שנוכל לצפות טוב יותר כוונות זדוניות שמתנגשות עם העקרונות והערכים שלנו", כתב לי.
יש לך מה להוסיף לסיפור הזה? שתפו אותו בתגובות.