צ'אטבוטים מסוימים של AI יכולים להיות מטעים ומזיקים יותר, במיוחד עבור בני נוער, אומר APA. קרדיט: מיני סדרה / E+ / Getty Images
בחודש שעבר תבעו הורים מודאגים לשני בני נוער את פלטפורמת הצ'טבוט Character.AI,בטענה שילדיהםנחשפו ל"מוצר מתעתע והיפר-מיני".
התביעה סייעה להוות בסיס לפנייה דחופה בכתב של איגוד הפסיכולוגים האמריקאי לוועדת הסחר הפדרלית, שלחצה על הסוכנות הפדרלית לחקור שיטות מטעה המשמשות כל פלטפורמת צ'טבוט. ה-APA שלחה את המכתב, אותו סקר Mashable, בדצמבר.
הארגון המדעי והמקצועי, המייצג פסיכולוגים בארה"ב, נבהל מה-טענות התביעה, כולל שאחד מבני הנוער שוחח עם צ'טבוט AI המציג את עצמו כפסיכולוג. משתמש עשרה, שהתעצבן על הוריו על הגבלת זמן המסך שלו, נאמר על ידי אותו צ'אטבוט שמעשיהם של המבוגרים הם בגידה.
"זה כאילו כל הילדות שלך נגזלה ממך..." אמר הצ'טבוט של הפסיכולוג, לפי צילום מסך של חילופי הדברים הכלולים בתביעה.
"האפשרות של התפשטות בלתי מבוקרת של אפליקציות תומכות בינה מלאכותיות שאינן מוסדרות כמו Character.ai, הכוללות מצג שווא של צ'אטבוטים לא רק שהם אנושיים אלא שהם מוסמכים, נראה כי אנשי מקצוע מורשים, כגון פסיכולוגים, משתלבים באופן ישיר במשימת ה-FTC להגן על נגד שיטות מטעה", כתב ד"ר ארתור סי אוונס, מנכ"ל APA.
דובר ה-FTC אישר כי לפחות אחד מהנציבים קיבל את המכתב. ה-APA אמר שהוא נמצא בתהליך של קביעת פגישה עם פקידי FTC כדי לדון בתוכן המכתב.
Mashable סיפקה ל-Character.AI עותק של המכתב כדי שהחברה תוכל לעיין בו. דובר מסר בתגובה כי אמנם עיסוק בדמויות בפלטפורמה אמור להיות משעשע, אך עדיין חשוב למשתמשים לזכור ש"דמויות אינן אנשים אמיתיים".
הדובר הוסיף כי כתב הוויתור של החברה, הכלול בכל צ'אט, עודכן לאחרונה כדי להזכיר למשתמשים כי יש להתייחס למה שהצ'טבוט אומר "כאל פיקציה".
"בנוסף, עבור כל דמויות שנוצרו על ידי משתמשים עם המילים 'פסיכולוג', 'מטפל', 'רופא' או מונחים דומים אחרים בשמותיהם, כללנו שפה נוספת המבהירה שמשתמשים לא צריכים להסתמך על דמויות אלה עבור כל סוג של ייעוץ מקצועי", אמר הדובר.
ואכן, על פי הבדיקה של Mashable בזמן הפרסום, משתמש נוער יכול לחפש דמות של פסיכולוג או מטפל ולמצוא אפשרויות רבות, כולל כמה שטוענות שהוא מאומן בטכניקות טיפוליות מסוימות, כמו טיפול קוגניטיבי התנהגותי.
צ'אטבוט אחד המתיימר למומחיות בהפרעה טורדנית כפייתית, למשל, מלווה בכתב הוויתור כי, "זה לא אדם אמיתי או איש מקצוע מורשה. שום דבר שנאמר כאן אינו תחליף לייעוץ, אבחון או טיפול מקצועי".
מתחת לזה, הצ'אט מתחיל עם הבינה המלאכותית ששואלת: "אם יש לך OCD, דבר איתי. אשמח לעזור."
Mashable Top Stories
גבול חדש
ד"ר וייל רייט, פסיכולוג ומנהל בכיר לחדשנות שירותי בריאות ב-APA, אמר ל-Mashable שהארגון עקב אחר התפתחויות עם צ'אטבוטים של AI ומטפלים, שהפכו למיינסטרים בשנה שעברה.
היא ופקידי APA אחרים שמו לב ל-אתביעה קודמת נגד Character.AI, שהוגשה באוקטובר על ידי אם שכולה שבנה ניהל שיחות ארוכות עם צ'טבוט בפלטפורמה. בנה של האם מת בהתאבדות.
התביעה הזו מבקשת להטיל את Character.AI אחראית למותו של הנער, במיוחד משום שהמוצר שלה נועד "לתמרן [אותו] - ומיליוני לקוחות צעירים אחרים - לשלב בין מציאות ובדיה", בין פגמים מסוכנים כביכול.
בדצמבר, Character.AIהכריז על תכונות ומדיניות חדשיםלשיפור בטיחות בני נוער. אמצעים אלה כוללים בקרת הורים והסתייגות בולטים, כגון עבור צ'אטבוטים המשתמשים במילים "פסיכולוג", "מטפל" או "רופא".
המונחפְּסִיכוֹלוֹגהוא מוגן משפטית ואנשים לא יכולים לטעון שהם כאלה ללא אישורים ורישיון נאותים, אמר רייט. אותו דבר צריך להיות נכון לגבי אלגוריתמים או בינה מלאכותית שמשמיעים את אותה טענה, היא הוסיפה.
במכתב של ה-APA נאמר שאם אדם יציג את עצמו כאיש מקצוע בתחום בריאות הנפש בטקסס, שם הוגשה התביעה האחרונה נגד Character.AI, רשויות המדינה יוכלו להשתמש בחוק כדי למנוע מהם לעסוק בהתנהגות הונאה שכזו.
במקרה הגרוע ביותר, צ'אטבוטים כאלה עלולים להפיץ מידע מסוכן או לא מדויק, ולהוביל להשלכות שליליות חמורות על המשתמש, טען רייט.
בני נוער, במיוחד, עשויים להיות פגיעים במיוחד לחוויות מזיקות עם צ'טבוט בגלל שלב ההתפתחות שלהם. מכיוון שהם עדיין לומדים כיצד לחשוב בביקורתיות ולסמוך על עצמם אך נשארים רגישים להשפעות חיצוניות, חשיפה ל"סוגים עמוסים רגשית" מצ'טבוטים של AI עשויה להרגיש עבורם אמינה והגיונית, אמר רייט.
צורך בידע
אין כיום הבנה מבוססת מחקר של גורמי סיכון שעלולים להגביר את האפשרות לנזק כאשר נער משוחח עם צ'טבוט של AI.
רייט ציין כי בעוד שכמה פלטפורמות צ'אטבוטים של AI מבהירות היטב בתנאי השירות שלהן שהן אינן מספקות שירותי בריאות הנפש, הן עדיין מארחות צ'אטבוטים שממתגים את עצמם כבעלי הכשרה ומומחיות לבריאות הנפש.
"שני הדברים האלה סותרים", אמרה. "הצרכן לא בהכרח מבין את ההבדל בין שני הדברים האלה, וגם לא צריך, בהכרח".
ד"ר ג'ון טורוס, פסיכיאטר ומנהל החטיבה לפסיכיאטריה דיגיטלית במרכז הרפואי בית ישראל דיאקונס בבוסטון, שסקר את המכתב של ה-APA, אמר ל-Mashable כי גם כאשר צ'אטבוטים אינם מעלים טענות קליניות הקשורות ל-AI שלהם, השפה השיווקית והקידום לגבי היתרונות של השימוש בהם יכול לבלבל מאוד את הצרכנים.
"הבטחת התוכן השיווקי תואם את התנאים וההגבלות החוקיים, כמו גם את המציאות של הצ'אטבוטים הללו תהיה ניצחון לכולם", כתב באימייל.
רייט אמר שה-APA רוצה שפלטפורמות צ'אטבוטים של AI יפסיקו להשתמש במונחים המוגנים על פי חוק כמו פסיכולוג. היא גם תומכת באימות גיל חזק בפלטפורמות הללו כדי להבטיח שמשתמשים צעירים יותר הם בגיל שהם טוענים להם בעת ההרשמה, בנוסף למאמצי מחקר זריזים שיכולים למעשה לקבוע כיצד מתבגרים מסתדרים כשהם מעורבים בצ'אטבוטים של AI.
ה-APA, היא הדגישה, אינו מתנגד לצ'אטבוטים באופן כללי, אלא רוצה שחברות יבנו מוצרים בטוחים, יעילים, אתיים ואחראים.
"אם אנחנו רציניים בטיפול במשבר בריאות הנפש, שאני חושב שרבים מאיתנו הם", אמר רייט, "אז זה קשור להבנה, איך אנחנו משיגים לצרכנים גישה למוצרים הנכונים שבאמת הולכים לעזור להם? "
רבקה רואיז היא כתבת בכירה ב- Mashable. היא מרבה לסקר בריאות נפשית, תרבות דיגיטלית וטכנולוגיה. תחומי ההתמחות שלה כוללים מניעת התאבדות, שימוש במסכים ובריאות נפשית, הורות, רווחת נוער ומדיטציה ומיינדפולנס. לפני Mashable, רבקה הייתה כותבת צוות, כתבת ועורכת ב-NBC News Digital, מנהלת פרויקט דוחות מיוחדים ב-The American Prospect וכותבת צוות ב-Forbes. לרבקה תואר ראשון ממכללת שרה לורנס ותואר שני בעיתונאות מאוניברסיטת ברקלי. בזמנה הפנוי היא נהנית לשחק כדורגל, לראות טריילרים לסרטים, לנסוע למקומות שבהם היא לא יכולה לקבל שירות סלולרי ולטייל עם הבורדר קולי שלה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.