אלגוריתמים יכולים לשכפל או להחמיר פערי בריאות גזעיים ברפואה ובבריאות. קרדיט: vicky leta / mashable
הסדרה של Mashable אלגוריתמים חוקר את שורות הקוד המסתוריות ששולטות יותר ויותר בחיינו - ובעתידנו.
בבתי חולים ובמערכות בריאות ברחבי הארץ, רופאים משתמשים לפעמיםאלגוריתמיםלעזור להם להחליט איזה סוג של טיפול או טיפול מטופליהם מקבלים. אלגוריתמים אלו משתנים מחישובים בסיסיים באמצעות מספר גורמים ועד לנוסחאות מתוחכמות המונעות על ידי בינה מלאכותית המשלבת מאות משתנים. הם יכולים למלא תפקיד בהשפעה על האופן שבו רופא מעריךתפקוד כליות, אם אמא צריכהללדת בנרתיקפעם אחת היא עברה ניתוח קיסרי, ואיזה חולים יכוליםתוֹעֶלֶתמהתערבויות מסוימות.
בעולם מושלם, מדעי המחשב שמפעילים את האלגוריתמים הללו יעניקו לקלינאים בהירות שאין שני לה לגבי צרכי המטופלים שלהם. הם היו מסתמכים על הידע והמומחיות של עצמם, כמובן, אבל אלגוריתם ירחיק אותם באופן תיאורטי מקבלת החלטות על סמך אנקדוטה, או אפילו הטיה מרומזת או מפורשת.
הבעיה היחידה, כמונומְלוּמָדבשנים האחרונות, היא שאלגוריתמים אינם פוסקים ניטרליים של עובדות ונתונים. במקום זאת, הם קבוצה של הוראות שנעשו על ידי בני אדם עם ההטיות והנטיות שלהם, שפועלים בעולם שכולו דעות קדומות. לפעמים, הם אפילו מפותחים באמצעות נתונים ישנים או מוגבלים.
הקרב על האלגוריתמים בתחום הבריאות הגיע לעיני כל מאז הסתיו האחרון. הוויכוח רק התגבר בעקבות הנגיף קורונהמגיפה, שהתרחשה באופן לא פרופורציונליהרוסקהילות שחורות ולטיניות. באוקטובר,מַדָעפרסם אלִלמוֹדזה מצא בית חולים אחד הפנה בטעות יותר חולים לבנים מאשר חולים שחורים לתוכנית ניהול טיפול בסיכון גבוה מכיוון שהוא השתמש באלגוריתם כדי לחזות את עלויות הבריאות העתידיות של החולים כאינדיקטור מרכזי לבריאות אישית. Optum, החברה שמוכרת את מוצר התוכנה, אמרה ל-Mashable שבית החולים השתמש בכלי בצורה לא נכונה.
מחברי המחקר מצאו שחולים שחורים היו חולים כמו עמיתיהם הלבנים, אך צפויים להיות בעלי עלויות נמוכות יותר בעתיד. הכותבים חושדים שהעלויות החזויות עבור החולים השחורים לא שיקפו את הסיכונים הבריאותיים ארוכי הטווח שלהם, אלא היו קשורות לבעיות מבניות, כמו קושי בגישה לשירותי בריאות והימנעות מעיסוק במערכת הבריאות בגלל התנסויות קודמות עם אפליה.
"אחרת, אתה יוצר דרך מדעית להצדיק חלוקה לא שוויונית של משאבים".
"מצד אחד, קיום אלגוריתם הוא סוג של אשליה של אובייקטיביות במדע", אומר ד"ר אזמנרי מ. אובאסי, מנהלמכון המחקר HEALTHבאוניברסיטת יוסטון ופסיכולוג יעוץ שחוקר פערי בריאות גזעיים. ד"ר אובאסי לא היה מעורב בענייןמַדָעלִלמוֹד.
עם זאת, ללא איזונים ובלמים כדי להבטיח שאלגוריתם אינו משפיע באופן חיובי או שלילי על קבוצה אחת יותר מאשר על קבוצה אחרת, הוא מאמין שהם עשויים לשכפל או להחמיר פערים קיימים.
"אחרת, אתה יוצר דרך מדעית להצדיק חלוקה לא שוויונית של משאבים", הוא אומר.
אין תיקון אוניברסלי לבעיה זו. מפתח עלול להתפתות לפתור את זה עם מתמטיקה משוכללת. רופא יכול לנסות להתעסק עם תשומות תוכנה או להימנע לחלוטין משימוש במוצר אלגוריתמי. מומחים אומרים, עם זאת, שהמצאת פתרון דורשת חינוך נרחב בנושא; שותפויות חדשות בין מפתחים, רופאים ומטופלים; וחשיבה חדשנית לגבי הנתונים הנאספים מהמטופלים מלכתחילה.
בלמים ואיזונים
למרות השימוש הנרחב באלגוריתמים בתחום הבריאות, אין מלאי מרכזי של כמה קיימים או מה הם נועדו לעשות. מינהל המזון והתרופותמונחתמסגרת בשנה שעברה להערכת תוכנות רפואיות המשתמשות באלגוריתמים של בינה מלאכותית, והרגולציה עדיין מתפתחת. במקרים מסוימים, הקוד הקנייני פותח על ידי חברות פרטיות ומערכות בריאות, מה שמקשה על לימוד אופן פעולתן. מטופלים עשויים בדרך כלל לא לדעת מתי נעשה שימוש באלגוריתם כחלק מהטיפול שלהם, אפילו שהוא משולב עם הרשומה הרפואית האלקטרונית שלהם כדי לעזור לייעץ לרופא שלהם.
מאמץ אחד בעיצומו במכון ברקלי למדעי הנתוניםמבטיחה להביא אחריות נחוצה לעולם האלגוריתמים של שירותי הבריאות. סטפני איינף, עמיתת חדשנות בריאות במכון וב-UCSF Bakar המכון לבריאות חישובית, מובילה עבודה לפיתוח "ספר משחק" של שיטות עבודה מומלצות לביקורת אלגוריתמים קליניים.
על מנת להפחית את הסיכון להטיה אלגוריתמית, Eaneff אומר שתהליך ההערכה צריך להתרחש לפני שמערכת בריאות מאמצת תוכנה חדשה. ספר המשחקים יכלול מידע ומשאבים שיסייעו למערכת בריאות ליצור ולתחזק "מלאי אלגוריתמים" משלה, כך שהיא תדע כיצד ומתי משתמשים בתוכנה לקבלת החלטות. זה גם יכסה כיצד לנטר את התחזיות שנעשו על ידי האלגוריתם לאורך זמן ולרוחב הדמוגרפיה של המטופלים, כמו גם כיצד להעריך את הביצועים של אלגוריתם על סמך מה שהוא משמש לניבוי או למדוד.
המדריך נועד לתת למערכות הבריאות כלים מועילים להכחדת הטיות, אך Eaneff מאמינה שחינוך מקצועי מתמשך ושיתוף פעולה הם שניהם קריטיים. לדבריה מפתחים העובדים במרחב הזה זקוקים להכשרה נוספת במדעי החברה, ביואתיקה ומדיניות שוויון בבריאות, כמו גם לשותפויות עם ביו-אתיקאים ותומכי חולים ובריאות.
"חשבו על זה מראש ותעדיפו את זה: מה בעצם אנחנו מנסים לבנות, עבור מי ואיך זה ייושם, ועל ידי מי, ועל אילו קהילות?" אומר איינף. "כשאתה מפתח דברים בסילו ומתייחס אליהם כאל בעיה מתמטית, זו בעיה".
Mashable Top Stories
קח, למשל, את דופק אוקסימטר. המכשיר הרפואי מודד את רמת החמצן הקיימת בדמו של אדם. מגיפת הקורונה הפכה את הלביש ליותרפּוֹפּוּלָרִיכמו צרכנים ממוצעים חיפשו דרכים לא פולשניות לעקוב אחר סימנים חיוניים מרכזיים בבית. ובכל זאת, כמו הביקורת בוסטוןמונחתבחודש שעבר, המכשיר למעשה "מקודד הטיה גזעית" מכיוון שהחיישנים שלו מכוילים במקור לעור בהיר. מדדי דופק יכולים להיות פחות מדויקים בעת מעקב אחר רמות החמצן עבור מטופלים עם גווני עור כהים יותר. המכשיר עצמו משתמש בדרך כלל באלגוריתם כדי לבצע את המדידות שלו, אבל רופאים משתמשים גם בקריאות שלו כגורם אחד באלגוריתמים הקליניים שלהם לקבלת החלטות. כל אותו זמן, לרופא אין מושג שאולי אלגוריתם איכזב אותם ואת המטופל שלהם.
אחד ממשתפי הפעולה של Eaneff הוא ד"ר זיאד אוברמאייר, המחבר הראשי של הספרמַדָעמחקר שפורסם בסתיו האחרון. הוא גם רופא ופרופסור חבר למדיניות בריאות וניהול באוניברסיטת ברקלי. לד"ר אוברמאייר ולמחבריו לא הייתה גישה למתמטיקה הבסיסית של האלגוריתם, אלא העריכו את מערך הנתונים של בית חולים אקדמי יחיד, שכן הוא השתמש בתוכנה אלגוריתמית כדי לחזות אילו מטופלים יכולים להפיק תועלת מהתערבויות ממוקדות לצרכי בריאות מורכבים.
החוקרים מצאו שהחולים השחורים היו פחות בריאים באופן משמעותי מהחולים הלבנים, אך זוהו בתדירות נמוכה יותר עבור עזרה מוגברת. כאשר החוקרים הביאו את ההבדל הזה, אחוז החולים השחורים שיכלו לקבל את המשאבים הנוספים הללו עלה מ-18% ל-47%. (בית החולים לא כלל גזע כאשר עובדיו השתמשו באלגוריתם כדי לזהות חולים, ובכל זאת התהליך הניב תוצאות לא שוות. החוקרים השתמשו במירוץ המזוהה בעצמם של החולים ברשומות הרפואיות שלהם כדי לסווג את התוצאות).
Optum, החברה שמוכרת את מוצר התוכנה מבוסס הכללים, המכונה Impact Pro, חולקת על ממצאי החוקרים, למרות שלא ביקשה ביטול או תיקוןמַדָע.
"האלגוריתם אינו מוטה גזעית", אמר דובר החברה באימייל ל-Mashable. המחקר, הוסיף הדובר, אפיין באופן שגוי את אלגוריתם חיזוי העלות על סמך השימוש של בית החולים, אשר "לא היה תואם עם כל שימוש מומלץ בכלי".
סרטון קשור: למה אתה תמיד צריך לשאול אלגוריתמים
התוכנה של האלגוריתם יכולה לזהות מצב בריאותי וסיכוני בריאות עתידיים בהתבסס על יותר מ-1,700 משתנים, לא רק עלויות חזויות. עם זאת, ד"ר אוברמאייר אומר שביצועי האלגוריתמים מוערכים באופן קבוע על פי דיוק חיזוי העלויות שלהם, מה שהופך אותו למדד מפתח עבור בתי חולים ומערכות בריאות, גם אם היצרנים אומרים שאין להשתמש בו בבידוד כדי לזהות חולים להתערבויות מסוימות. ד"ר אוברמאייר אומר שהוא מצא שזה המקרה תוך כדי עבודה עם מערכות בריאות וחברות ביטוח בעקבות פרסום המחקר שלו. א 2016דִוּוּחַעל אלגוריתמים של שירותי בריאות מאגודת האקטוארים השתמשו גם בחיזוי עלויות כדי לאמוד את הביצועים של מספר אלגוריתמים, כולל Impact Pro.
"אני לא רואה בזה סיפור על מערכת בריאות אחת גרועה או אלגוריתם רע אחד - זה רק פגם רחב ושיטתי בדרך שכולנו חשבנו על הבעיה במערכת הבריאות", כתב ד"ר אוברמאייר בכתבה. אֶלֶקטרוֹנִי.
הוא מקווה שיצירת ספר הפעלה מפורט עבור מערכות הבריאות "יגרום לכך שאלגוריתמים ייבדקו בנקודות השונות הללו בצנרת, לפני שיתחילו לגעת בחולים".
שינוי תרבות
הוויכוח על אלגוריתמים של שירותי בריאות - בתחום שבו נמצאים רופאיםלְעִתִים קְרוֹבוֹתגברים לבנים - עורר גם השתקפות וגם התגוננות.
הקיץ הזה, ד"ר דיוויד ג'ונס, פרופסור לתרבות הרפואה באוניברסיטת הרווארד, כתבסָעִיףב-New England Journal of Medicineעל אופן השימוש בגזע באלגוריתמים קליניים. הכותבים השותפים זיהו מספר אלגוריתמים במיילדות, קרדיולוגיה, אונקולוגיה ומקצועות אחרים, אשר הביאו את הגזע לתחזיות הסיכון או תוצאות בדיקות האבחון שלהם.
במבט ראשון, כולל גזע עשוי להיראות כמו דרך יעילה להפוך את האלגוריתמים לפחות מוטים. אלא, כפי שטענו ד"ר ג'ונס ושותפיו: "על ידי הטמעת הגזע בנתונים ובהחלטות הבסיסיות של שירותי הבריאות, האלגוריתמים הללו מפיצים רפואה מבוססת גזע. רבים מאלגוריתמים המותאמים לגזע מנחים החלטות בדרכים שעשויות לכוון יותר תשומת לב או משאבים לחולים לבנים מאשר לבני מיעוטים גזעיים ואתניים".
יתרה מכך, הם כתבו, כאשר מפתחי אלגוריתמים מסוימים מנסים להסביר מדוע עשויים להתקיים הבדלים גזעיים או אתניים, ההסבר מוביל ל"מדע גזע מיושן וחשוד או לנתונים מוטים". המחברים השותפים אמרו שחשוב להבין כיצד הגזע עשוי להשפיע על תוצאות הבריאות. כאשר הגזע מופיע כקשור לתוצאות מסוימות, סביר להניח שהוא מהווה פרוקסי למשהו אחר: גזענות מבנית, השכלה, הכנסה וגישה לשירותי בריאות. עם זאת, הם הזהירו מפני שימוש בו בכלי חיזוי כמו אלגוריתמים.
"לא יצאנו ואמרנו שהדברים האלה רעים וצריך להפסיק אותם", אומר ד"ר ג'ונס בראיון. "אמרנו שהדברים האלה כנראה גרועים ויש לשקול אותם".
ד"ר ג'ונס מאמין שאלגוריתמים ישפרו וייצרו תוצאות שוויוניות יותר אם היו אחראים לעוני, שהואמנבא משמעותישל תוחלת החיים, וגורמים סוציו-אקונומיים אחרים כמו חוסר ביטחון תזונתי, דיור וחשיפה לרעלים סביבתיים.
באופן כללי, ידוע שרופאים מתנגדים לנטישת טכניקות וכלים שהם סומכים עליהם. ייתכן שהם לא מבינים את הקשר המורכב בין גזענות מבנית לתוצאות בריאותיות. כתוצאה מכך, חלקם עשויים להיות מסויגים לחשוב באופן ביקורתי על אלגוריתמים והון עצמי.
עבור ד"ר אובאסי, מנהל הארגוןמכון המחקר HEALTHבאוניברסיטת יוסטון, חיוני שמפתחים וקלינאים יקשיבו למטופלים המושפעים מאלגוריתמים.
מטופל שמדווח פחות על היבטים מסוימים בבריאותו, כמו מחלות נפש, שימוש בסמים ואלימות בין בני זוג, עלול לעשות זאת מתוך פחד. אם הוא לא יכול לענות על שאלות על ההיסטוריה הרפואית של אביו, זה יכול להיות בגלל שאין לו היסטוריה אישית איתו או שהוא לא דן איתו באתגרים רפואיים. אם הוא לא יכול למלא את החלק של השאלון על בריאותה של אמו, זה יכול להיות בגלל שלא היה לה ביטוח כבר שנים ולא פנתה לרופא. מטופל שנחשב "לא מציית" עלול להרגיש לא בנוח לעקוב אחר הוראות רופא לאחר שהתמודד עם גזענות במשרדו.
ד"ר אובאסי מאחל אלגוריתמים שתוכננו עם הבדלים תרבותיים וחוויות חיים כאלה בחשבון.
"בכל פעם שאתה מנסה לקחת התקדמות טכנולוגית ולתרגם את זה הלכה למעשה, אתה צריך שיהיו אנשים שהושפעו מכך ליד השולחן", אומר ד"ר אובאסי. "וזה דורש רמה אחרת של ענווה".
קרא עוד מ אלגוריתמים:
רבקה רואיז היא כתבת בכירה ב- Mashable. היא מרבה לסקר בריאות נפשית, תרבות דיגיטלית וטכנולוגיה. תחומי ההתמחות שלה כוללים מניעת התאבדות, שימוש במסכים ובריאות נפשית, הורות, רווחת נוער ומדיטציה ומיינדפולנס. לפני Mashable, רבקה הייתה כותבת צוות, כתבת ועורכת ב-NBC News Digital, מנהלת פרויקט דוחות מיוחדים ב-The American Prospect וכותבת צוות ב-Forbes. לרבקה יש תואר ראשון ממכללת שרה לורנס ותואר שני בעיתונאות מאוניברסיטת ברקלי. בזמנה הפנוי היא נהנית לשחק כדורגל, לראות טריילרים לסרטים, לנסוע למקומות שבהם היא לא יכולה לקבל שירות סלולרי ולטייל עם הבורדר קולי שלה.