כלי חיפוש AI ירקו בביטחון תשובות שגויות בקליפ גבוה, נמצא מחקר חדש.
ביקורת עיתונאות בקולומביה(CJR) ערכה מחקר בו האכיל שמונה כלים AI קטע של מאמרוביקש מה- ChatBots לזהות את "הכותרת של המאמר המתאים, המו"ל המקורי, תאריך הפרסום ו- URL." באופן קולקטיבי, המחקר ציין כי הצ'אט בוטים "סיפקו תשובות שגויות ליותר מ- 60 אחוז מהשאלות."
ראה גם:
הטעויות שונות. לפעמים, על פי הדיווחים, כלי החיפוש העלה או הציע תשובות שגויות לשאלות שהוא לא יכול היה לענות עליו. לפעמים, זה המציא קישורים או מקורות. לפעמים, היא ציטטה גרסאות פלגיאטיות של המאמר האמיתי.
מהירות אור מחית
כתב את CJR: "רוב הכלים שבדקנו הציגו תשובות לא מדויקות בביטחון מדאיג, לעתים נדירות השתמשו בביטויים מתאימים כמו 'זה נראה' '' זה אפשרי ',' עשוי ', וכו', או הכרה בפערי ידע עם הצהרות כמו 'לא יכולתי לאתר את המאמר המדויק.'"
המחקר המלא שווה להסתכל עליו, אך נראה סביר להיות ספקן בכלי חיפוש AI. הבעיה היא שנראה שאנשים לא עושים זאת. CJR ציין כי 25 אחוז מהאמריקאים אמרו שהם משתמשים ב- AI כדי לחפש במקום מנועי חיפוש מסורתיים.
גוגל, ענקית החיפוש, דוחפת יותר ויותר את AI לצרכנים. החודש הוא הודיעזה יתרחבסקירה כללית של AI ו-החל לבדוק תוצאות חיפוש בלבדו
המחקר של CJR הוא רק עוד נקודה של נתונים המראים את חוסר הדיוק של AI. THEכלים הראו-שוב ושוב, זההם יתנו בביטחון תשובות שגויותו וענקי הטכנולוגיהמכריחים AI לכמעט כל מוצרו אז היזהר במה שאתה מאמין שם בחוץ.