קרדיט: Mehau Kulyk/Science Photo Library/Corbis
התבוננות פנימית הפכה לסחורה.
הרעיון שהיכולת שלנו לשקף הועברה למיקור חוץ לאלגוריתמים עשוי להיראות היפרבולי. אנו מניחים שיש לנו סמכות לגבי הבחירות שאנו עושים, מושפעות מהפרדיגמה של התאמה אישית, אך לא נכללת במטריקס של מישהו אחר.
אבל איך אתה יודע? האם יצרת רשימה של פעילויות שלעולם לא תאציל? האם אתה בכלל יכול להבחין היכן מסתיימים הגבולות המוסריים שלך ומתחילות הטיות מקודדות?
ראה גם:
בעודנו מברכים על המשוב שחיישנים, נתונים ואינטליגנציה מלאכותית מספקים, אנו נמצאים בנקודת פיתול קריטית. תיחום הפרמטרים בין סיוע ואוטומציה מעולם לא היה מרכזי יותר לרווחת האדם. אבל היום, היופי נמצא ב-AI של המתבונן. חוסר רגישות לערך של נתונים אישיים, אנו מדממים תובנות יקרות לגבי הזהות שלנו שמגדירות את הניואנסים המוסריים הדרושים לנווט במודרניות האלגוריתמית.
אם לא קיימים סטנדרטים מבוססי ערכים לבינה מלאכותית, אז ההטיות של היצרנים שלה יגדירו את הקוד האוניברסלי שלנו לאתיקה. אבל זה לא צריך להיות הצלב שלהם לשאת לבד. הגיע הזמן להפסיק להשמיץ את קהילת הבינה המלאכותית ולהתחיל להגדיר יחד עם היצירות שלהם מה המשמעות של החיים הטובים סביב התודעה והקוד שלנו.
כוונת האתיקה
"התחל כפי שאתה מתכוון ללכת קדימה." מייקל סטיוארט הוא מייסד, יו"ר ומנכ"לצָלוּל, חברת בינה מלאכותית שבסיסה באוסטין שהכריזה לאחרונה על הקמת פאנל הייעוץ האתי הראשון בתעשייה (EAP). בעוד גוגל טענה ליצירת לוח דומה כאשררוכשת את חברת הבינה המלאכותית DeepMindבינואר 2014, לא קיים כרגע מימוש ציבורי של מאמציה (כפי שאושר על ידי נציג יחסי ציבור מגוגל עבור יצירה זו). הפאנל של Lucid, לשם השוואה, כבר החל לתפקד כארגון נפרד מהצד האנליטי של העסק ומספק פיקוח על החברה ולקוחותיה. "המאמצים שלנו", אומר סטיוארט, "מונחים על ידי העיקרון שקבוצת האתיקה שלנו אובססיבית לוודא שההשפעה של הטכנולוגיה שלנו טובה".
קיי פירת'-באטרפילד הוא המנהל הראשי של ה-EAP, והוא מואשם להיות בחזית הסוגיות האתיות המשפיעות על תעשיית הבינה המלאכותית ועל החברה כולה. מבחינה פנימית, ה-EAP מספק את המרכז של התנהגות אתית עבור החברה. מישהו מהמשרד של פירת'-באטרפילד אפילו יושב בכל צוותי הליבה של פיתוח המוצר. "מבחוץ", היא מציינת, "אנו מתכננים ליישם אינטליגנציה Cyc (קיצור של 'אנציקלופדיה', פלטפורמת החשיבה הסיבתית של AI של Lucid) למחקר כדי להדגים את היתרונות של AI ולייעץ להנהגה של Lucid לגבי החלטות מפתח, כמו החתימה האחרונה של אתמכתב חוקיםוהשימוש הסופי באפליקציות של לקוחות."
הבטחת ההשפעה של טכנולוגיית AI חיובית אינה מתרחשת כברירת מחדל. אבל כפי ש-Lusid מדגים, האתיקה לא חייבת לעצור חדשנות על-ידי התמקמות אך ורק בתחום של הפחתת סיכונים. תהליכים אתיים המתואמים עם ערכי הליבה של חברה יכולים לספק מוצרים רלוונטיים יותר והגברת אמון הציבור. הכללת ערכי הלקוח שלך באופן שקוף בתהליכים אלה מחזירה את האדם להתאמה אישית.
ה-EAP של Lucid קבע סטנדרט חדש לחדשנות בתעשיית הבינה המלאכותית לעומת דחיית DeepMind. האתיקה של השתיקה שלהם מדברת רבות, ומסיקה את תעדוף הפטנטים על פני התאמה גלויה לערכים אנושיים. אבל כפי שסטיוארט מציין, פרקטיקות אתיות לא ודאות אינן מובילות להחלטות עסקיות טובות. "לחכות עד שאתה כבר בונה מוצרים שמפריעים בדרכים שליליות לתעשייה זה לא הגיוני. אנחנו רוצים ליישם שיטות עבודה מומלצות מההתחלה, כך שההשפעה שלנו מאומתת מבחינה אתית".
ההשראה של התבוננות פנימית
"אני רואה את התפקיד שלי לא לומר, לא, אתה לא יכול לעשות את זה, אלא לשאול מהן המטרות שיש למהנדס והמעצב. כיצד נוכל להשיג את המטרות הללו מבלי לפגוע בערכים התרבותיים היקרים לנו?"איימי ואן ווינסברגה, PhD, הוא עוזר פרופסור לפילוסופיה של טכנולוגיה באוניברסיטת טוונטה בהולנד ומוביל מחשבה בהתהוותיועץ אתיקהתַעֲשִׂיָה. מעבר לחובות הסטנדרטיות של אדם בוועדת אתיקה מסורתית או בוועדת ביקורת מוסדית (IRB), יועץ מתפקד יותר כמעצב מאשר כאיש אקדמיה. מעבר להתמקדות בהשלכות שליליות אפשריות, יועצים מספקים מתודולוגיות למשתתפים כדי לטפח תפיסות חזקות יותר של טכנולוגיה או מוצר. עבור בינה מלאכותית, פורמט זה יכול לעורר חדשנות. "זה המקום שבו חברות באמת יכולות להרוויח", אומר ואן ווינסברגה. "כאשר יועץ פועל כחבר בצוות העיצוב, הם לא מציבים מגבלות על התהליך אלא עוזרים ליצור חזונות אוטופיים המובילים להשפעה מעשית."
ראה גם:
"לפעמים אתה יכול לעשות דברים שהם חוקיים לחלוטין אך עם זאת מאוד לא אתיים."רולנד ואן רייזוויקעובד בSURFnet, רשת המחקר והחינוך הלאומית בהולנד המחברת בין האקדמיה למכוני מחקר ברחבי הארץ. לאחרונה הוא עבד עם ואן ווינסברגה כדי ליצור חוברת שנועדה לעזור לצוות לזהות סוגיות אתיות הנוגעות לאופן שבו הנתונים שלהם ישמשו חוקרים חיצוניים. הוא ממהר לשים לב שהחוברת (תפורסם בקרוב) היא לא רק רשימת בדיקה לקבלת אישור, אלא תוכנית לדיונים נמרצים של הצוות שנועדו לגבש החלטות מושכלות. כפי שמציינים בחוברת, "אתיקה של מידות טובות מאפשרת דיון מעבר לכללים או חובות קשוחים ומהירים ומרחיקה לכת מאשר דיון על תוצאות בלבד. זה דורש מאדם לחפש מוטיבציה ומחויבות פנימית, לבטא את כוונותיו מאחורי פעולה". התבוננות פנימית מולידה חדשנות על ידי ניסוח זה של אחריות. בעוד שכמה החלטות אתיות עשויות להיראות ברורות, ערכים הם סובייקטיביים. בדיון בסוגיות באופן גלוי, הבנה קהילתית יכולה להאיר דרכים לא ברורות בעבר.
"ככל שאנו מקיימים יותר אינטראקציה עם מערכות המעורבות בכוונות אנושית, כך נצטרך להבין את עצמנו יותר." ג'ייק מטקאלף הוא בחור בנתונים וחברה, מכון מחקר בעיר ניו יורק המתמקד בסוגיות חברתיות ואתיות בנוגע לטכנולוגיה ממוקדת נתונים. הוא גם מייסד שותף של חברת הייעוץ,נחישות אתיתומציין שבניסיון להבין אילו החלטות אתיות צריכה חברה כדי להגשים את הערכים שלה, הם מקבלים יותר תובנה לגבי המוצר והשוק שלה. ככל שחברה יכולה להיות יותר משקפת את עצמה, כך היא תצליח יותר.
הוא מודה שהתהליך הסוקרטי הוא לא תמיד מהנה - לקוחות יתלוננו לפעמים על 'השאלות המחמירות' שלו - אבל דווקא בהצגה של תרחישים קשים אלו חברות משיגות בהירות לגבי ההחלטות העסקיות שלהן. "להיות פילוסוף זה בעצם רק לשאול שאלות נאיביות בקפדנות", אומר מטקאלף. "אתה שואל שאלה שאולי נראית טיפשית בהתחלה, אבל כשאתה עוקב אחריה עד למסקנה ההגיונית שלה אתה מגיע לערכים בסיסיים שאולי לא הבנת שיש לך."
ההיוריסטיקה של האנושות
"הסיכון של אי התחלת תהליך להגדרת סטנדרטים אתיים גלובליים הוא שהמתנה עלולה להפריע לחדשנות עבור AI על ידי תוצאה של אלגוריתמים בלתי תואמים בין חברות."קונסטנטינוס קראצ'ליוסהוא מנכ"ל עבוראיגוד התקנים IEEE, ארגון בניית הקונצנזוס שהוא חלק ממנוIEEE, האיגוד המקצועי הגדול בעולם של מהנדסים. יחד עם בעיות יכולת פעולה הדדית, Karachalios מאמין שחלק מתקני AI צריך לכלול שליטה טובה יותר בנתונים ובזהות האישיים. "זו אשליה לומר שהפרטיות מתה. אם לאדם אין סוכנות סביב הנתונים והתקשורת שלו, איך הוא יכול לתרום לכל תהליך דמוקרטי?"
נקודת המבט של Karachalios היא פילוסופית מרעננת אך סוקרטית במתכוון, שנועדה לעורר דיאלוג גלובלי סביב אתיקה של AI כדי לעזור ל-IEEE לזהות סטנדרטים שמקדמים ומשרתים את האנושות. זה תהליך שמתעדף אנשים על פני מכונות. קרצ'ליוס מרגיש שסטנדרטים מוסריים שנכפו על ידי אלגוריתמים מצועפים ימנעו סטייה סביב בחירה אתית. בינה מלאכותית תגדיר סטנדרטים אינדיבידואליים ותרבותיים ותגרום לבני אדם להיראות תמיד נחותים בהשוואה. "חלק ממה שמרכיב את כבוד האדם שלנו", הוא אומר, "הוא היכולת שלנו לחוסר עקביות, יחד עם הערכים המכוונים אותנו להשתפר".
ג'ף קולוויןהוא העורך הבכיר של מגזין Fortune ומחברו שלבני אדם לא מוערכים: מה שהישגים גבוהים יודעים שמכונות מבריקות לעולם לא יצליחו. הספר מתאר כיצד הערך הכלכלי של תכונות אנושיות כמו אמפתיה הולך וגדל ככל שהאוטומציה משנה את אופי החברה. עד לנקודה זו בהיסטוריה, מכונות השלימו את היכולות שלנו לעומת החליפו אותן. כעת כלכלנים רבים חשים שהאיזון משתנה, כאשר עבודת מכונות היא בלתי נמנעת, מה שגורם לנו לחשוב מחדש על המוסר סביב העבודה. "זה לא עולם חדש מבחינה כלכלית", אומר קולווין, "זה עולם חדש מבחינה אתית".
אבל ספרו אינו מתמקד בסמנטיקה של תעסוקה, או מתי רובוטים מחליפים את מה. ההשערה שלו תלויה במציאות סובייקטיבית שאנו חייבים לאמץ בזמן שאנו יוצרים את הסטנדרטים האתיים הקובעים את גורלנו. "אני טוען", הוא אומר, "שיש חוויות מסוימות שבני אדם יעריכו יותר בבני אדם אחרים, גם אם מחשב יכול לעשות אותן."
המוסר של הרגע
כשזה מגיע לבדיקה מדוקדקת של הפעולות שלנו ולהשפיע על הרגשות שלנו, האלגוריתמים של האינטרנט המצטבר כבר שולטים בזהות האתית שלנו. אבל אנחנו לא יכולים לפתח את המין האנושי בהתבסס על מיקור חוץ אקראי של הרצון החופשי הקולקטיבי שלנו. הגיע הזמן לתעשיית הבינה המלאכותית לתת עדיפות ליצירת סטנדרטים אתיים ולמנף את החדשנות הנובעת מדיאלוג שקוף עם מחזיקי העניין שלהם. והגיע הזמן ששארנו נתאמץ ולתמוך במאמציהם על ידי אימוץ התבוננות פנימית לפני שנאבד את ההזדמנות.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.