כשמכוניות בנהיגה עצמית עושות את דרכן לאטאל הכבישים שלנו, כיצד יעזרו מפתחים לרכבים האוטונומיים הללו לקבל החלטות קשות במהלך תאונות? פרויקט חדש של MIT ממחיש עד כמה זה יהיה קשה על ידי ערבוב משחק עם שאלות מוסריות עמוקות.
ראה גם:
המכונה מוסריתמציג בפניכם שורה של תרחישי תנועה בהם מכונית בנהיגה עצמית חייבת לבחור בין שתי אפשרויות מסוכנות.
האם כדאי להימנע מלפגוע בקבוצה של חמישה הולכי רגל מתהלכים על ידי פגיעה במפריד בטון שיהרוג שניים מהנוסעים שלך? אם אין ברירה אחרת, האם אתה נכנס לקבוצה של הולכי רגל צעירים, או הולכי רגל מבוגרים? האם אתה סוטה כדי להימנע מקבוצת חתולים וכלבים חמודים, או מכה רופא, גבר ומנהל? עם שתי אפשרויות בלבד, האם אתה פוגע בקבוצה גדולה של הומלסים שמצייתים לחוקי התנועה או בילד קטן שמסתובב ברמזור?
אלו הם סוגי שבריר שנייה, בחירות מוסריותמכוניות בנהיגה עצמיתבהכרח ייאלץ לעשות, ואתר הניסויים של MIT חושף עד כמה דברים יכולים להיות אפלים. המשחק כולל הכל מנשים בהריון ועד ילדים קטנים, ובסוף המשחק אתה זוכה לראות איך הבחירות שלך מסתדרות מול אחרים ששיחקו במשחק.
עד כה, רוב השיפוטים של משתמשים נוטים להציל חיים של יותר נשים מאשר גברים, הצלת צעירים יותר לפני קשישים, והצלת בני אדם על פני חיות מחמד. עם זאת, כשמדובר בשאלת ההגנה על נוסעים מול הולכי רגל, השחקנים חולקו בערך 50/50.
מהירות אור ניתנת לריסוק
דילמה מוסרית לאוהבי בעלי חיים, או קו קשה לטובת בני אדם עבור רובוטים עתידיים? קרדיט: MIT Moral Machine
אתה יכול גם לעצב תרחישים משלך (ראהחתולים מול כלבים).
לְפִיעִם, הניסוי נועד לספק "פלטפורמה ל-1) בניית תמונת המונים של דעה אנושית על האופן שבו מכונות צריכות לקבל החלטות כשהן מתמודדות עם דילמות מוסריות, ו-2) אסיפה של מיקור המונים ודיון בתרחישים פוטנציאליים של השלכות מוסריות. "
MIT לא מכנה את הפרויקט שלה במפורש "משחק", אבל כאשר אתה מסיים סט שלם של שאלות תרחישים, האתר שואל אם תרצה "לשחק שוב".
נכון לעכשיו, הבחירות האלה הן רק תרגיל מחשבתי, אבל אם אנשים כמו מייסד-שותף של Lyft, ג'ון זימרצודקים, חברות המפרסמות רכבים אוטונומיים יצטרכו להתמודד עם שאלות כאלה רק בעוד כמה שנים.
בינתיים, כולנו יכולים להשתמש באתר כדי לשקול את ההשלכות של משימה של מכונות לקבל החלטות על חיים ומוות עבור נוסעים והולכי רגל כאחד.