קרדיט: vicky leta / mashable
עבור אנשים רבים שהקדישו את חייהם למניעת התאבדות, פוסטים במדיה החברתית יכולים להיות מערך נתונים יקר המכיל רמזים לגבי מה שאנשים אומרים ועושים לפני שהם מנסים להתאבד.
בשנים האחרונות,חוקריםבנו אלגוריתמים כדי ללמוד אילו מילים ואימוג'י קשורים למחשבות אובדניות. הם אפילו השתמשו בפוסטים של מדיה חברתית כדי בדיעבדלַחֲזוֹתמוות התאבדות של משתמשי פייסבוק מסוימים.
עכשיו יש לפייסבוק עצמההתגלגל החוצהבינה מלאכותית חדשה שיכולה לזהות באופן יזום סיכון התאבדות מוגבר ולהתריע על צוות בודקים אנושיים שהוכשרו להגיע למשתמש השוקל פגיעה עצמית קטלנית.
דוגמה למה שמישהו עשוי לראות אם פייסבוק מזהה שהוא זקוק לעזרה. קרדיט: פייסבוק
הטכנולוגיה, שהוכרזה ביום שני, מייצגת הזדמנות שאין שני לה להבין ולחזות את הסיכון להתאבדות. עוד לפני שהכלי הבינה המלאכותית הוכרז בפומבי, פייסבוק השתמשה בו כדי לעזור לשלוח מגיבים ראשונים ב-100 "בדיקות בריאות" כדי להבטיח את בטיחות המשתמש. פוטנציאל הצלת החיים של הכלי הוא עצום, אך החברה לא תשתף פרטים רבים על אופן פעולתו או האם תחלוק את ממצאיה עם אקדמאים וחוקרים.
זה חייב להשאיר כמה מומחים בתחום מבולבלים ומודאגים.
Munmun De Choudhury, עוזרת פרופסור בבית הספר למחשוב אינטראקטיבי בג'ורג'יה טק, משבחת את חברת המדיה החברתית על כך שהתמקדה במניעת התאבדויות, אך היא הייתה רוצה שפייסבוק תהיה שקופה יותר לגבי האלגוריתמים שלה.
"זה לא סתם עוד כלי בינה מלאכותית - הוא מתמודד עם נושא רגיש באמת", אמרה. "זה עניין של חיים ומוות של מישהו".
"זה לא סתם עוד כלי בינה מלאכותית - הוא מתמודד עם נושא רגיש באמת. זה עניין של חיים ומוות של מישהו".
פייסבוק מבינה את ההימור, ולכן סמנכ"ל ניהול המוצר שלה, גיא רוזן, הדגיש בראיון כיצד בינה מלאכותית מזרזת משמעותית את תהליך זיהוי המשתמשים במצוקה והשגת משאבים או עזרה.
אבל הוא סירב לדבר לעומק על גורמי האלגוריתם מעבר לכמה דוגמאות כלליות, כמו הערות מודאגות מחברים ובני משפחה, השעה ביום והטקסט בפוסט של משתמש. רוזן אמר גם כי החברה, שיש לה שותפויות עם ארגונים למניעת התאבדות, רוצה ללמוד מחוקרים, אך הוא לא ידון כיצד או אם פייסבוק עשויה לפרסם או לשתף תובנות מהשימוש שלה ב-AI.
"אנחנו רוצים להיות מאוד פתוחים לגבי זה", אמר.
בעוד ששקיפות אולי לא הכוח של פייסבוק, בתחום כמו מניעת התאבדות היא יכולה לעזור למומחים אחרים להציל חיים נוספים על ידי חשיפת התנהגות או דפוסי שפה שצצים לפני חשיבה אובדנית או ניסיון התאבדות. עם יותר מ-2 מיליארד משתמשים, לפייסבוק יש ללא ספק את מסד הנתונים הגדול ביותר של תוכן כזה בעולם.
דה צ'ודהורי אומר ששקיפות חיונית בכל הנוגע לבינה מלאכותית מכיוון ששקיפות משרה אמון, סנטימנט שנמצא במחסור מכיוון שאנשים מודאגים מהפוטנציאל של הטכנולוגיה לשבש מהותית את חייהם המקצועיים והאישיים. ללא מספיק אמון בכלי, אומר דה צ'ודהורי, משתמשים בסיכון עשויים להחליט שלא לשתף פוסטים פגיעים רגשית או אובדניים.
Mashable Top Stories
כאשר משתמשים מקבלים הודעה מפייסבוק, זה לא מצביע על כך שבינה מלאכותית זיהתה אותם כבעלי סיכון גבוה. במקום זאת, נאמר להם ש"מישהו חושב שאולי תזדקק לתמיכה נוספת ברגע זה וביקש מאיתנו לעזור." עם זאת, המישהו הזה הוא סוקר אנושי שעקב אחר זיהוי AI של סיכון.
כרגע זה גם בלתי אפשרי לדעת איך ה-AI קובע שמישהו נמצא בסיכון מיידי, הדיוק של האלגוריתם, או איך הוא עושה טעויות כאשר הוא מחפש רמזים לחשיבה אובדנית. מכיוון שמשתמשים לא יידעו שהם סומנו על ידי AI, אין להם דרך לומר לפייסבוק שהיא זיהתה אותם בטעות כמתאבדים.
המחקר של דה צ'ודהורי כולל ניתוח מדיה חברתית כדי לאסוף מידע על הרווחה הנפשית והרגשית של אנשים, כך שהיא מבינה את האתגרים של פיתוח אלגוריתם יעיל וההחלטה אילו נתונים לפרסם.
היא מכירה בכך שפייסבוק חייבת להגיע לאיזון עדין. שיתוף היבטים מסוימים של הממצאים שלו, למשל, עלול להוביל את המשתמשים לפשט את סיכון ההתאבדות על ידי התמקדות במילות מפתח או איתותים אחרים של מצוקה. וזה עשוי לתת לאנשים עם כוונות רעות נקודות מידע שהם יכולים להשתמש בהם כדי לנתח פוסטים במדיה חברתית, לזהות אנשים עם בעיות נפשיות נתפסות ולמקד אותם להטרדה או אפליה.
"אני חושב ששיתוף האופן שבו האלגוריתם עובד, גם אם הם לא חושפים כל פרט מייסר, יהיה ממש מועיל."
פייסבוק גם מתמודדת עם מערך שונה של ציפיות ולחצים כחברה פרטית. היא עשויה לשקול את כלי הבינה המלאכותית שלו למניעת התאבדות קניין רוחני שפותח לטובת הציבור. ייתכן שהיא תרצה להשתמש בתכונות של אותו קניין רוחני כדי לשפר את ההצעות שלה למשווקים ולמפרסמים; אחרי הכל, איתור מצבו הרגשי של משתמש הוא דבר שיכול להיות בעל ערך רב לתחרותיות השוק של פייסבוק. החברה עשתה בעברהביעעניין בפיתוח יכולת זו.
בכל מקרה, דה צ'ודהורי טוען שפייסבוק עדיין יכולה לתרום למאמצים רחבים יותר להשתמש במדיה חברתית כדי להבין התאבדות מבלי לפגוע בבטיחות האנשים ובשורה התחתונה של החברה.
"אני חושבת ששיתוף אקדמי של איך האלגוריתם עובד, גם אם הם לא חושפים כל פרט מייסר, יהיה ממש מועיל", היא אומרת, "...כי כרגע זו באמת קופסה שחורה".
Crisis Text Line, שחברה בשיתוף פעולה עם פייסבוק כדי לספק משאבים ותמיכה למניעת התאבדות למשתמשים, אכן משתמשת בבינה מלאכותית כדי לקבוע את סיכון ההתאבדות של אנשים - ומשתפת את ממצאיה עם חוקרים ועם הציבור.
"עם קנה המידה של הנתונים ומספר האנשים שיש לפייסבוק במערכת שלה, היא עשויה להיות מערך נתונים בעל ערך רב עבור אקדמאים וחוקרים להבנת סיכון התאבדות", אמר בוב פילבין, מדען נתונים ראשי ב-Crisis Text Line.
פילבין לא ידע שפייסבוק מפתחת AI כדי לחזות את הסיכון להתאבדות עד יום שני, אבל הוא אמר ש-Crisis Text Line הוא שותף גאה ולהוט לעבוד עם החברה כדי למנוע התאבדות.
Crisis Text Line מאמן יועצים להחליק הודעות טקסט מ"חם למגניב" ומשתמש במגיבים ראשונים כמוצא אחרון. הסוקרים האנושיים של פייסבוק מאשרים את זיהוי הסיכון של ה-AI על ידי בחינת הפוסטים של המשתמש. הם מספקים משאבים ויוצרים קשר עם שירותי החירום בעת הצורך, אך אינם מעסיקים עוד יותר את המשתמש.
ייתכן שהציוץ נמחק
פילבין מצפה שה-AI של פייסבוק יקלוט אותות שונים מאלה שמופיעים בנתונים של Crisis Text Line. אנשים שפונים לקו עושים זאת בחיפוש אחר עזרה ולכן עשויים להיות מפורשים יותר באופן שבו הם מתקשרים מחשבות ורגשות אובדניים.
אחת הדוגמאות הפשוטות היא כיצד שולחים בסיכון גבוה יותר להתאבד אומרים שהם "צריכים" לדבר עם יועץ. הדחיפות הזו - בהשוואה ל"רוצה" - היא רק גורם אחד שה-AI של הקו משתמש בו כדי לשפוט לגבי סיכון. אחרת היא המילה "איבופרופן", אשר שורת טקסט משברהתגלהיש סיכוי גבוה פי 16 לחזות שהאדם שמשלח הודעות טקסט זקוק לשירותי חירום מאשר המילה התאבדות.
פילבין אמר שהאלגוריתם של Crisis Text Line יכול לזהות 80 אחוז משיחות הטקסט שדורשות בסופו של דבר תגובה חירום בתוך שלוש ההודעות הראשונות.
זה סוג התובנה שיועצים, מטפלים ורופאים מקווים שיהיו להם יום אחד. ברור שפייסבוק, בזכות גודלה העצום ומחויבותה למניעת התאבדות, מובילה כעת את המאמץ להעביר איכשהו את הידע הזה לידיים של אנשים שיכולים להציל חיים.
האם פייסבוק תקבל את העמדה הזו או לא - והשקיפות שהיא דורשת - זו שאלה שהחברה מעדיפה לא לענות עליה עדיין. עם זאת, בשלב מסוים, לא תהיה לו שום אפשרות אחרת.
אם אתה רוצה לדבר עם מישהו או שאתה חווה מחשבות אובדניות, שלח הודעה ל-שורת טקסט משברבטלפון 741-741 או התקשר לקו החיים הלאומי למניעת התאבדויותבטלפון 1-800-273-8255. הנה ארְשִׁימָהשל משאבים בינלאומיים.
רבקה רואיז היא כתבת בכירה ב- Mashable. היא מרבה לסקר בריאות נפשית, תרבות דיגיטלית וטכנולוגיה. תחומי ההתמחות שלה כוללים מניעת התאבדות, שימוש במסכים ובריאות נפשית, הורות, רווחת נוער ומדיטציה ומיינדפולנס. לפני Mashable, רבקה הייתה כותבת צוות, כתבת ועורכת ב-NBC News Digital, מנהלת פרויקט דוחות מיוחדים ב-The American Prospect וכותבת צוות ב-Forbes. לרבקה יש תואר ראשון ממכללת שרה לורנס ותואר שני בעיתונאות מאוניברסיטת ברקלי. בזמנה הפנוי היא נהנית לשחק כדורגל, לראות טריילרים לסרטים, לנסוע למקומות שבהם היא לא יכולה לקבל שירות סלולרי ולטייל עם הבורדר קולי שלה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.