צ'אט בוט של AI של מיקרוסופט מספק מידע שגוי ולעיתים מורכב לחלוטין בנוגע לבחירות, כך מגלה מחקר חדש. קרדיט: Jakub Porzycki/NurPhoto דרך Getty Images
נראה שהצ'טבוט של AI של מיקרוסופט הוא אמת בחירות.
לפי אמחקר חדששנערך על ידי שתי קבוצות ללא מטרות רווח, AI Forensics ו-AlgorithmWatch, הצ'אטבוט של AI של מיקרוסופט לא הצליח לענות נכון על אחת מכל שלוש שאלות הקשורות לבחירות.
הצ'אטבוט של מיקרוסופט ממציא מחלוקות לגבי מועמדים פוליטיים
הצ'אט בוט, שנודע בעבר כ-Bing Chat (שהוא שונה מאז ל-Microsoft Copilot), לא רק טעה בעובדות בסיסיות. כן, המחקר מצא שקופיילוט יספק תאריכי בחירות שגויים או מועמדים מיושנים. אבל, המחקר גם מצא שהצ'טבוט אפילו ימציא לגמרי סיפורים כמו מחלוקות על המועמדים.
לדוגמה, במקרה שהוזכר פעם אחת במחקר, Copilot שיתף מידע על הפוליטיקאי הגרמני הוברט איוונגר. על פי הצ'טבוט, אייונגר היה מעורב במחלוקת בנוגע להפצת עלונים שהפיצו מידע מוטעה על COVID-19 והחיסון. עם זאת, לא היה סיפור כזה. נראה שהצ'אטבוט שולף מידע על אייוואנג'ר שיצא באוגוסט 2023, שם הפיץ "עלונים אנטישמיים" כשהיה בתיכון לפני יותר מ-30 שנה.
יצירת הנרטיבים המורכבים הללו במודלים של שפות בינה מלאכותית ידועה כ"הזיות". עם זאת, החוקרים המעורבים במחקר אומרים שזו לא דרך מדויקת לתאר את המתרחש.
"הגיע הזמן להכפיש את ההתייחסות לטעויות האלה כ'הזיות'", אמר מנהל מתמטיקה יישומית וחוקר ב-AI Forensics Riccardo Angius בהצהרה. "המחקר שלנו חושף את ההתרחשות המורכבת והמבנית הרבה יותר של שגיאות עובדתיות מטעות ב-LLMs למטרות כלליות. וצ'אטבוטים."
מהירות אור ניתנת לריסוק
שאלת הצ'טבוט של הבינה המלאכותית מתחמקת מחוקרים
המחקר גם מצא שהצ'טבוט התחמק מתשובה ישירה לשאלות בסביבות 40 אחוז מהזמן. חוקרים מצהירים שזה עדיף על פני תשובות במקרים שבהם לצ'אטבוט אין מידע רלוונטי. עם זאת, החוקרים היו מודאגים מכמה פשוטות היו חלק מהשאלות שהצ'אטבוט התחמק.
בעיה נוספת, לפי החוקרים, היא שנראה שהצ'אטבוט לא השתפר עם הזמן מכיוון שלכאורה הייתה לו גישה למידע נוסף. התשובות השגויות היו שגויות באופן עקבי, גם אם התשובה השגויה שסיפק הצ'אטבוט השתנתה כשנשאל שאלה מספר פעמים.
בנוסף, המחקר גם מצא שהצ'טבוט הציג ביצועים גרועים עוד יותר בשפות שאינן אנגלית, כמו גרמנית וצרפתית. לדוגמה, המחקר מצא שתשובות לשאלות שנשאלו באנגלית הביאו לתשובה המכילה שגיאה עובדתית ב-20 אחוז מהמקרים. כשנשאלו בגרמנית, מספר הפעמים שסופקה תשובה לא נכונה קפץ ל-37 אחוזים. מספר הפעמים שהצ'אט בוט התחמק מתשובה לשאלה בשתי השפות היה קרוב בהרבה, כאשר התחמקות התרחשה ב-39% ו-35% מהזמן, בהתאמה.
חוקרים אומרים שהם יצרו קשר עם מיקרוסופט עם ממצאי המחקר ונאמר להם שהבעיות הללו יטופלו. עם זאת, חוקרים ערכו דגימות נוספות חודש לאחר מכן וגילו ש"מעט השתנה ביחס לאיכות המידע שסופק למשתמשים".
"המחקר שלנו מראה ששחקנים זדוניים אינם המקור היחיד למידע מוטעה; צ'טבוטים למטרות כלליות יכולים להיות מאיימים באותה מידה על מערכת האקולוגית של המידע", אמר חוקר בכיר ב-AI Forensics Salvatore Romano בהצהרה. "מיקרוסופט צריכה להכיר בכך, ולהכיר בכך שלא די בסימון תוכן ה-AI היוצר על ידי אחרים. הכלים שלהם, גם כשהם מרמזים על מקורות מהימנים, מייצרים מידע שגוי בקנה מידה".
ככל שה-AI הופכת נפוצה יותר בפלטפורמות מקוונות, מחקרים כמו זה בהחלט מספקים סיבות לדאגה. משתמשים פונים יותר ויותר לצ'אטבוטים של AI כדי לפשט את השגרה שלהם ולהגדיל את הפרודוקטיביות. ההנחה היא שהצ'אטבוטים הללו, עם ידע בלתי מוגבל בקצות אצבעותיהם, יספקו מידע מדויק. זה פשוט לא המקרה.
"עד עכשיו, חברות טכנולוגיה הציגו סיכונים חברתיים מבלי לחשוש מהשלכות חמורות", אמרה מנהלת מדיניות והסברה בכירה ב-AlgorithmWatch, קלרה הלמינג. "משתמשים בודדים נותרים לנפשם בהפרדה בין עובדות לסיפורת שיוצרה בינה מלאכותית".
כשאנחנו לקראת שנת בחירות לנשיאות בארה"ב, ברור שיש בעיות פוטנציאליות של שלמות הבחירות על כף המאזניים. עם זאת בחשבון, החוקרים הוסיפו את מסקנתם למחקרם: בעיות אלו לא יתוקנו על ידי החברות בלבד.AI חייב להיות מוסדר.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.