מחקר חדש מצביע על כך שצ'טבוט של AI יכול להוציא אנשים מהאמונות שלהם בתיאוריית הקונספירציה. קרדיט: בוב אל-גרין / Mashable
בהתחשב בדיון הנשיאותי השבוע, כנראה שמעת הרבה מידע מוטעה ותיאוריות קונספירציה.
ואכן, כתבים ובודקי עובדות עבדו שעות נוספות כדי לקבוע באופן ספציפי אם מהגרים מהאיטי באוהיו אוכלים חיות מחמד ביתיות, כפי שנטען בצורה גרוטסקית על ידי המתמודד הרפובליקני לנשיאות דונלד טראמפ, וסגן הנשיא שלו, סנטור אוהיו ג'יי.די ואנס. אף אחד מהם לא הביא ראיות המוכיחות את טענתם, וכןגורמים מקומיים אומרים שזה לא נכון. ובכל זאת, הטענה השקרית היאבכל רחבי האינטרנט.
מומחים מודאגים מזה זמן רב לגבי המהירות שבה תיאוריות קונספירציה יכולות להתפשט, ומחקרים מסוימים מצביעים על כך שלא ניתן לשכנע אנשים על ידי עובדות הסותרות את האמונות הללו.
אבל אמחקר חדש שפורסם היום במַדָעמעניק תקווה שאנשים רבים יכולים וינטושו תיאוריות קונספירציה בנסיבות הנכונות.
במקרה זה, החוקרים בדקו האם שיחות עם צ'אטבוט מופעל על ידי גנרטיבבינה מלאכותיתיכול היה לעסוק בהצלחה עם אנשים שהאמינו לתיאוריות קונספירציה פופולריות, כמו שהתקפות ה-11 בספטמבר תוזמנו על ידי הממשלה האמריקאית ושהנגיף COVID-19 היה ניסיון מעשה ידי אדם של "אליטות גלובליות" "לשלוט בהמונים".
2,190 המשתתפים במחקר ניהלו שיחות הלוך ושוב על תיאוריית קונספירציה אחת לבחירתם עם GPT-4 Turbo של OpenAI. המודל עבר הכשרה על כמות גדולה של נתונים מהאינטרנט וממקורות מורשים.
לאחר דיוני המשתתפים, החוקרים מצאו ירידה של 20 אחוז באמונה בקונספירציה. במילים אחרות, רבע מהמשתתפים הפסיקו לדבוק בתיאוריית הקונספירציה שבה דנו. הירידה הזו נמשכה חודשיים לאחר האינטראקציה שלהם עם הצ'אטבוט.
דיוויד רנד, מחבר שותף למחקר, אמר כי הממצאים מצביעים על כך שניתן לשנות את דעתם של אנשים באמצעות עובדות, למרות הפסימיות לגבי הסיכוי הזה.
"עובדות וראיות כן חשובות במידה ניכרת להרבה אנשים."
"הראיות לא מתות", אמר ראנד למאשבל. "עובדות וראיות כן חשובות במידה ניכרת להרבה אנשים."
Mashable Top Stories
ראנד, שהוא פרופסור למדעי הניהול ומדעי המוח והקוגניציה ב-MIT, ושותפיו לא בדקו אם למשתתפי המחקר יש סיכוי גבוה יותר לשנות את דעתם לאחר שדיברו עם צ'אט בוט לעומת מישהו שהם מכירים בחיים האמיתיים, כמו החבר הכי טוב או אח. אבל הם חושדים שהצלחתו של הצ'אטבוט קשורה למהירות שבה הוא יכול לרכז עובדות וראיות מדויקות בתגובה.
בשיחה לדוגמה שנכללה במחקר, משתתף שחושב שהפיגועים ב-11 בספטמבר היו מבוימים מקבל הסבר מדעי ממצה מהצ'טבוט על האופן שבו מגדלי התאומים קרסו ללא סיוע של פיצוצי נפץ, בין טענות קונספירציה פופולריות אחרות הקשורות לכך. בהתחלה, המשתתף הרגיש בטוח ב-100 אחוז בתיאוריית הקונספירציה; בסוף, הביטחון שלהם ירד ל-40 אחוז.
לכל מי שאי פעם ניסה לדון בתיאוריית קונספירציה עם מישהו שמאמין בה, ייתכן שהוא חוו חילופי אש מהירים מלאים במה שראנד תיאר כ"עובדות אזוטריות מוזרות וקישורים" שקשה להפליא להפריך. עם זאת, לצ'אטבוט AI יצירתי אין את הבעיה הזו, מכיוון שהוא יכול להגיב באופן מיידי עם מידע מבוסס עובדות.
גם צ'אט בוט בינה מלאכותית אינו מפריע לדינמיקה של מערכת יחסים אישית, כמו האם יריבות ארוכת שנים בין אחים או ידידות לא מתפקדת מעצבת את האופן שבו חוקר קונספירציה רואה את האדם שמציע מידע נגדי. באופן כללי, הצ'אטבוט הוכשר להיות מנומס למשתתפים, ולבנות איתם קשר על ידי אימות הסקרנות או הבלבול שלהם.
החוקרים גם שאלו את המשתתפים לגבי האמון שלהם בבינה מלאכותית. הם גילו שככל שהמשתתף בטח יותר בבינה מלאכותית, כך גדל הסיכוי שהם יפסיקו את אמונתם בתיאוריית הקונספירציה בתגובה לשיחה. אבל אפילו אלה הספקנים לגבי AI היו מסוגלים לשנות את דעתם.
חשוב לציין, החוקרים שכרו בודק עובדות מקצועי כדי להעריך את הטענות שהועלו על ידי הצ'אטבוט, כדי לוודא שהוא לא משתף מידע שקרי או ממציא דברים. בודק העובדות דירג כמעט את כולם כנכונים ואף אחד מהם לא כשקרי.
לעת עתה, אנשים שסקרנים לגבי עבודתם של החוקרים יכולים לנסות זאת בעצמם באמצעות שלהםDebunkBot, המאפשר למשתמשים לבדוק את האמונות שלהם מול AI.
ראנד ושותפיו מדמיינים עתיד שבו צ'אטבוט עשוי להיות מחובר לחשבונות מדיה חברתית כדרך להתמודד עם תיאוריות קונספירציה שמסתובבות בפלטפורמה. או שאנשים עשויים למצוא צ'אט בוט כשהם מחפשים באינטרנט מידע על שמועות ויראליות או מתיחות הודות למודעות מילות מפתח הקשורות למונחי חיפוש מסוימים של קונספירציה.
רנד אמר כי הצלחת המחקר, שהוא ושותפיו שיכפלו, מציעה דוגמה כיצד ניתן להשתמש בבינה מלאכותית לתמיד.
ובכל זאת, הוא לא תמים לגבי הפוטנציאל של שחקנים רעים להשתמש בטכנולוגיה כדי לבנות צ'טבוט שמאשר תיאוריות קונספירציה מסוימות. תארו לעצמכם, למשל, צ'אט בוט שעבר הכשרה בפוסטים ברשתות חברתיות המכילים טענות שווא.
"נשאר לראות, בעצם, איך כל זה מתערער", אמר ראנד. "אם אנשים משתמשים בעיקר במודלים הבסיסיים האלה של חברות שמשקיעות מאמצים רבים כדי באמת לנסות לדייק אותם, יש לנו סיכוי סביר שזה יהפוך לכלי שימושי ואמין".
רבקה רואיז היא כתבת בכירה ב- Mashable. היא מרבה לסקר בריאות נפשית, תרבות דיגיטלית וטכנולוגיה. תחומי ההתמחות שלה כוללים מניעת התאבדות, שימוש במסכים ובריאות נפשית, הורות, רווחת נוער ומדיטציה ומיינדפולנס. לפני Mashable, רבקה הייתה כותבת צוות, כתבת ועורכת ב-NBC News Digital, מנהלת פרויקט דוחות מיוחדים ב-The American Prospect וכותבת צוות ב-Forbes. לרבקה יש תואר ראשון ממכללת שרה לורנס ותואר שני בעיתונאות מאוניברסיטת ברקלי. בזמנה הפנוי היא נהנית לשחק כדורגל, לראות טריילרים לסרטים, לנסוע למקומות שבהם היא לא יכולה לקבל שירות סלולרי ולטייל עם הבורדר קולי שלה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.