קרדיט: Christopher Mineses / mashable
אם תתבקשו לנחש באילו מילים אנשים משתמשים כשהם נמצאים בסיכון הגבוה ביותר להתאבדות, הייתם צריכים לחשוב על שמות עצם ופעלים ברורים כמו למות, מנת יתר וכן, המילה התאבדות עצמה.
אז מתישורת טקסט משבר, שירות תמיכה חינמי בבריאות הנפש, בנה אלגוריתם לסימון טקסטים בעדיפות גבוהה, הוא כלל את אלה מבין 50 מילים כדי לציין שהאדם ששלח הודעות זקוק נואשות לעזרה.
אבל כאשר Crisis Text Line התחילה להשתמש בבינה מלאכותית כדי לנתח את 22 מיליון ההודעות על מצוקה רגשית במסד הנתונים שלה בקיץ שעבר, החוקרים שלה גילו תגלית מפתיעה: הסיכוי של המילה איבופרופן לחזות את האדם שישלח טקסט יזדקק לשירותי חירום פי 16 יותר מאשר המילה איבופרופן. מילה התאבדות.
סוג נוסף של תוכן חזוי מאוד לא היה אפילו מילה אלא אימוג'י של פרצוף בוכה. כשאנשים כללו את הדמות העצובה הזו בהודעות שלהם, לפקחים של קו טקסט משבר היה סיכוי גבוה פי 11 להתקשר למוקד 911 לסיוע. בסך הכל, Crisis Text Line שילבה 9,000 מילים חדשות או צירופי מילים המצביעים על סיכון גבוה - ומצפה להוסיף עוד בעתיד.
ייתכן שהציוץ נמחק
ננסי לובלין, מנכ"לית העמותה, אומרת שנקודות הנתונים הבלתי צפויות הללו עשו הבדל עצום. לפני שה-AI זיהה את המילים החדשות, מתנדבים הגיבו להודעות טקסט בסיכון גבוה תוך פחות משתי דקות. כעת זמן התגובה הממוצע ירד ל-39 שניות. לובלין מאמין שזה בגלל שהאלגוריתם הרבה יותר טוב לזהות את אלו שנמצאים בסיכון הגבוה ביותר ולשלוח אותם לקדמת הקו, כמו שהיית עושה בחדר מיון בבית חולים.
"סוף סוף אנחנו מקשיבים לאנשים שמתאבדים ומשתמשים במה שהם אומרים לנו כדי להבין איך לעזור להם".
ג'ולי סרל, פסיכולוגית קלינית ונשיאה הנבחרה של האיגוד האמריקאי לאובדנות, אומרת שההשלכות המעשיות של הטכנולוגיה חשובות. אבל היא גם מאמינה שהגישה משקפת שינוי משמעותי בדרך שבה מנסים חוקרים ואנשי מקצוע בתחום בריאות הציבור למנוע התאבדות.
Mashable Top Stories
"מה שזה מדבר זה שאנחנו סוף סוף מקשיבים לאנשים שמתאבדים ומשתמשים במה שהם אומרים לנו כדי להבין איך לעזור להם", היא אומרת.
בעבר, זה היה ממש בלתי אפשרי לסרוק ולקוד תמלילים עם ניצולי ניסיונות התאבדות בקנה מידה זהה ל-Crisis Text Line. כעת למידת מכונה מאפשרת לחוקרים לנתח שיחות דיגיטליות ולחפש אותות שמישהו עשוי להיות קרוב לניסיון התאבדות.
גישה זו צברה תאוצה ניכרת בשנה האחרונה. פייסבוק לאחרונההכריזשהיא משלבת בינה מלאכותית במאמצי מניעת ההתאבדות שלה, ובפרויקט המחקרOurDataHelpsהושק באביב שעבר על ידי בקשת אנשים "לתרום" את הנתונים החברתיים שלהם כדי שמדענים יוכלו להבין טוב יותר את הסיכון להתאבדות.
ב-Crisis Text Line, שיחות שמסתיימות במה שמכונה חילוץ אקטיבי הן נדירות. רק אחוז אחד מהחילופים הללו דורש התערבות של הרשויות, ולובלין רואה בכך קו ההגנה האחרון. המטרה, היא אומרת, היא לעזור למסמסים ליצור תוכנית בטיחות ולעודד אותם להרגיש מסוגלים להתמודד עם משבר. אבל לפעמים הגישה הזו לא עובדת, וזו הסיבה שלובלין רוצה שהמערכת תהיה מהירה ומדויקת ככל האפשר בייחוד אנשים בסיכון גבוה.
ייתכן שהציוץ נמחק
למרות שהמילים והביטויים החדשים של Crisis Text Line שזיהו אולי לא ייראו שימושיים מיד לרופאים ומטפלים שעובדים עם מטופלים באופן אישי, Cerel אומר שהם עדות לכך שאנשים לא תמיד בוחרים את המילים הברורות ביותר לדבר על רגשות אובדניים.
"זו תזכורת להמשיך ולשאול את השאלה", אומר צראל, "ולהבהיר שאנחנו רוצים לשמוע את התשובה".
אם אתה רוצה לדבר עם מישהו או שאתה חווה מחשבות אובדניות, שלח הודעה ל- שורת טקסט משברבטלפון 741-741 או התקשר לקו החיים הלאומי למניעת התאבדויות בטלפון 1-800-273-8255. הנה א רְשִׁימָהשל משאבים בינלאומיים.
רבקה רואיז היא כתבת בכירה ב- Mashable. היא מרבה לסקר בריאות נפשית, תרבות דיגיטלית וטכנולוגיה. תחומי ההתמחות שלה כוללים מניעת התאבדות, שימוש במסכים ובריאות נפשית, הורות, רווחת נוער ומדיטציה ומיינדפולנס. לפני Mashable, רבקה הייתה כותבת צוות, כתבת ועורכת ב-NBC News Digital, מנהלת פרויקט דוחות מיוחדים ב-The American Prospect וכותבת צוות ב-Forbes. לרבקה יש תואר ראשון ממכללת שרה לורנס ותואר שני בעיתונאות מאוניברסיטת ברקלי. בזמנה הפנוי היא נהנית לשחק כדורגל, לראות טריילרים לסרטים, לנסוע למקומות שבהם היא לא יכולה לקבל שירות סלולרי ולטייל עם הבורדר קולי שלה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.