[wp_scm_op_ed]
אני, למשל, לא מברך על אדוני הרובוטים החדשים שלנו.
תן לי לפרט.
כותב עלבינה מלאכותיתמהווה אתגר. בגדול, יש שני כיוונים לנקוט כשדנים בנושא: להתמקד בהישגים המדהימים באמת של הטכנולוגיה או להתעכב על הסכנות של מה שעלול לקרות אם מכונות יגיעו לרמה שלAI חיוני, שבהן מכונות מודעות לעצמן מגיעות לאינטליגנציה ברמה אנושית).
הדיכוטומיה הזו מעצבנת אותי. אני לא רוצה לבחור צד. כטכנולוג, אני מאמצת את ההיבטים החיוביים של בינה מלאכותית, כאשר היא עוזרת לקדם טכנולוגיות רפואיות או אחרות. כאדם פרטי, אני שומר לעצמי את הזכות לפחד קקי פחות מזה2023 אולי נשיג AGI(בינה כללית מלאכותית) אוAI חזק- מכונות שיכולות לבצע בהצלחה כל משימה אינטלקטואלית שאדם יכול.
לא כדי לזעזע אותך עם כישורי המתמטיקה המטורפים שלי, אבל 2023 עוד 10 שנים. תשכח מזהרובוטים גונבים לנו את העבודה,יהיהדואגים לנו כשאנחנו מבוגרים, מבקש מאיתנו להסתובב ולהשתעלבזירה הרפואית.
בכל המחקר שלי, אני לא יכול למצוא תשובה מוחלטת לשאלה הבאה: כיצד נוכל להבטיח שבני אדם יוכלו לשלוט ב-AI ברגע שהוא ישיג אינטליגנציה ברמת האדם?
אז כן, יש לי בעיות שליטה. הייתי מעדיף שבני אדם ישמרו על אוטונומיה על פני טכנולוגיות שיוכלו להשיג תחושות, בעיקר כי אני לא מבין למה מכונות יצטרכו לשמור אותנו בסביבה בטווח הארוך.
זה לא שרובוטים הם מרושעים, כשלעצמם. (לַמרוֹתקן ג'נינגס, אלוף הסכנה שהפסיד לווטסון של יבמ עשוי להרגיש אחרת.) זה יותר שמכונות ורובוטים מתוכנתים כרגע, ולרגע, בעיקר, על ידי בני אדם שתמיד חווים הטיות.
בדו"ח שפורסם על ידי Human Right's Watch ו-International Human Rights Clinic של בית הספר למשפטים של הרווארד,"לאבד את האנושות, התיק נגד רובוטים רוצחים", כותבים המחברים: "במפת הדרכים המשולבת של מערכות בלתי מאוישות FY2011-2036, משרד ההגנה האמריקני כתב כי הוא "צופה מערכות בלתי מאוישות הפועלות בצורה חלקה עם מערכות מאוישות תוך הפחתה הדרגתית של מידת השליטה האנושית וקבלת ההחלטות הנדרשות עבור החלק הבלתי מאויש של מבנה הכוח'".
"המערכות הבלתי מאוישות" מתייחסות לכלי נשק אוטונומיים לחלוטין שיכולים לבחור ולערב מטרות ללא התערבות אנושית.
מי מחליט מתי יש לעסוק במטרה? כשחושבים על זה, מי מחליט מי הוא המטרה? האם אנחנו באמת רוצים למסור את השליטה על בינה מלאכותית בנשק למכונות, בעקבות מצבים כמו המטומה התרבותית שלטרייבון מרטיןיְרִי? איך זה של פלורידהתעמוד בחוק היסוד שלךלפעול אם נשלט על ידי אכיפת בינה מלאכותית משטרתית המחוברת לרשת החכמה של העיר?
תשובה קצרה: בחרו בדיסנילנד.
FUD מול FAB
אַשׁרַאי:
תמונה: סטיב מאן
המונח,FUDמייצג "פחד, אי ודאות וספק". זהו ביטוי מזלזל שמקורו בתעשיית הטכנולוגיה, שבה חברות משתמשות בטקטיקות דיסאינפורמציה כדי להפיץ מידע כוזב על מתחרים.
עם זאת, ה-FUD התפתח והפך לביטוי מייגע המופנה כלפי כל מי שמטיל ספק בהיבטים מסוימים של הטכנולוגיה המתפתחת, ולעתים קרובות בעקבות האשמות שללודיטיות.
אבל אני חושב שלאנשים יש תמונה שגויה של הלודיטים. בניו יורק טיימס,פול קרוגמןכתב לאחרונה על רעיון זה, וציין כי התנועה הלודיטית המקורית הייתה במידה רבה מונעת כלכלית, בתגובה למהפכה התעשייתית. הלודיטים המקוריים לא היו בורים לגבי הטכנולוגיה של היום, או לפחות ההשלכות שלה (אובדן עבודה). הם אחזו בנשק כדי להרוג את המכונות שלדעתם הורגות אותם.
לא רחוק מדי לומר שאנחנו בסביבה דומה, למרות שההימור גבוה יותר - בינה מלאכותית חזקה עשויה לטעון טווח רחב יותר של בעיות טכנולוגיות מאשר מכונות דיש.
אז, בתור חובב של יצירת ראשי תיבות, אני רוצה להעמיד את הביטוי הבא כדי להתמודד עם הרעיון של FUD, במיוחד הקשור לטכנולוגיה שעלולה להסתיים באדם ללא סטנדרטים המסדירים את צמיחתה:
FAB: פחד, מודעות והטיה
ראשי התיבות מבחינים בין פחד עיוור וריאקציוני המשמש להפצת מידע כוזב באופן יזום, מפחד מוצדק ואנושי המבוסס על ההטיה שזה בסדר לומר שאנחנו לא רוצים שישלטו אותנו, יישלטו עלינו, יהיו מחוץ לעבודה או פשוט יתעלמו מהמכונות החיות. .
האם זה אומר שאני מחבק את הוויתור, או נוטש את המחקר הקשור לבינה מלאכותית? לא לגמרי. אותו ווטסון שניצח ב-Jeopardy נמצא כעת בשימושמחקרים אונקולוגיים פורצי דרך. כל תגובה ברכיים להפסקת העבודה בחלל הבינה המלאכותית אינה הגיונית (הרבה פחות, זה בלתי אפשרי).
אבל ההשלכות מוסריותשל בינה מלאכותית נעשית עכורה כשחושבים על דברים כמו חשיבה הסתברותית, שעוזרת למחשבים לעבור מעבר להחלטות בוליאניות (כן/לא) כדי לקבל החלטות בעיצומה של חוסר הוודאות - למשל, אם לעשות זאת או לא.לתת הלוואהלמבקש על סמך ניקוד האשראי שלו.
מפתה לתהות מה יקרה אם היינו משקיעים יותר זמן בהתמקדות בעזרה ישירה אחד לשני, לעומת הסתמכות על מכונות שיגדלו לנו מוחות בעצם.
רעיונות FAB
אַשׁרַאי:
תמונה: קלייד דה סוזה
"ביקוע גרעיני הוכרז לעולם בהירושימה." ג'יימס באראט הוא המחבר שלההמצאה הסופית שלנו: בינה מלאכותית וסוף העידן האנושי, שמסביר תיאור יסודי של השחקנים הראשיים במרחב הבינה המלאכותית הגדול יותר, יחד עם תחושה מעצרת לאן פנינו מועדות עם למידת מכונה -- עולם שאיננו יכולים להגדיר.
לראיון שלנו, הוא ציטט את פרויקט מנהטן ופיתוח הביקוע הגרעיני כתקדים לאופן שבו עלינו לשקול את המצב הנוכחי של מחקר בינה מלאכותית:
עלינו לפתח מדע להבנת אינטליגנציה מלאכותית מתקדמת לפני שנפתח אותה הלאה. זה רק הגיון בריא. ביקוע גרעיני משמש כמקור אנרגיה ויכול להיות אמין. בשנות ה-30 ההתמקדות של הטכנולוגיה הזו הייתה בתחילה בייצור אנרגיה, אך תוצאת המחקר הובילה ישירות להירושימה. אנחנו בנקודת מפנה דומה בהיסטוריה, במיוחד לגבי למידת מכונה בנשק. אבל עם AI אנחנו לא יכולים לשרוד מודיעין ברמה אנושית ממומשת במלואה שמגיעה בפתאומיות כמו הירושימה.
באראט גם הצביע על הקושי בנוגע לבינה מלאכותית ואנתרופומורפיזם. קל להחדיר למכונות ערכים אנושיים, אבל בהגדרה, הן סיליקון מול פחמן.
"מכונות חכמות לא יאהבו אותך יותר ממה שהטוסטר שלך אוהב", הוא אומר. "באשר לשיפור האינטליגנציה האנושית, אחוז מהאוכלוסייה שלנו הוא גם פסיכופטי. לתת לאנשים מכשיר שמשפר את האינטליגנציה אולי לא יהיה רעיון נהדר".
מאמר אחרון בבוסטון גלובמאת ליאון נייפאך מספק זווית נוספת לדאגה לגבי מכונות אוטונומיות. קח את המכונית בנהיגה עצמית של גוגל -- מה קורה כאשר מכונה עוברת על החוק?
גבריאל הלוי, פרופסור למשפט פלילי במכללה האקדמית אחת בישראל ומחבר הספר הקרובכאשר רובוטים הורגים: בינה מלאכותית במסגרת החוק הפלילי, מוסיף להערכתו של באראט: מכונות אינן צריכות להיות רעות כדי לגרום לדאגה (או להערכתו של הלוי, להיות אחראיות פלילית).
הבעיה היא לא מוסריות, אלא מודעות.
הלוי מציין פנימה"האם עלינו להעמיד רובוטים למשפט","עבריין - אדם, תאגיד או רובוט - אינו נדרש להיות רשע. הוא רק נדרש להיות מודע למה שהוא עושה...[שזה] כרוך בלא יותר מאשר קליטת מידע עובדתי על העולם ועיבוד מדויק שלו".
אפשרויות עבור AI
הטבע של FAB, כפי שאני מציע אותו, הוא לעבור אל מעבר לדיכוטומיה של שתי דרכים בלבד לחשוב על AI ולהעלות את עבודתם של הוגים ייחודיים במרחב. השתמש בפחדים שלנו לגבי טבעם של תרחישים פוטנציאליים כדי לעזור ליצור מודעות לאפשרויות חיוביות שיטפו אותנו לפעולה בנוגע לבינה מלאכותית, לעומת כניעה לשאננות או לקבלה שבשתיקה כלפי שלטון אדון בלתי נמנע.
בהקשר זה, הערכתי כשג'יימס באראט סיפר לי על עבודתו שלסטיב אומוהונדרובעל תארים בפיזיקה ומתמטיקה מסטנפורד, Ph.D. בפיזיקה מאוניברסיטת ברקלי ונשיאמערכות מודעות עצמיות,צוות חשיבה שיצר כדי "להביא ערכים אנושיים חיוביים לטכנולוגיות אינטליגנטיות חדשות".
הוא מספק קול מרענן בקהילת הבינה המלאכותית, ומודה ש"סביר להניח שהמערכות האלה יהיו כל כך חזקות שאנחנו צריכים לחשוב היטב על הבטחתן שהן מקדמות את הטוב ומונעות את הרע".
במונחים של שימוש בבינה מלאכותית לאמצעים חיוביים, כדאי לצפות בשני סרטונים שלו: ההרצאה שלו ב-TEDx באסטוניה ב-"טכנולוגיה חכמה לטובת הכלל"(למעלה) והרצאה מרכזית באוקספורד על"טכנולוגיה אוטונומית לטובת האדם הגדול".
סטיב מאן,חלוץ בתחום המחשוב הלביש, יש תיאוריה שלאינטליגנציה הומניסטית(HI) שגם מוסיף רובד ייחודי לדיון סביב בינה מלאכותית. התיאוריה הגיעה מהדוקטורט שלו. לעבוד ב-MIT, שםמרווין מינסקי(שרבים מכנים אותו אבי הבינה המלאכותית) היה בוועדת התזה שלו.
מאן מסביר בפתיחת התזה שלו, "במקום לנסות לחקות אינטליגנציה אנושית, HI מכיר בכך שהמוח האנושי הוא אולי הרשת העצבית הטובה ביותר מסוגה, ושקיימים יישומי עיבוד אותות חדשים רבים בתחום הטכנולוגיות האישיות. , שיכול לעשות שימוש במעבד המצוין הזה, אך לעתים קרובות מתעלם ממנו." על ידי מינוף כלים כמו ה-Glass של גוגל או מערכות מצלמות לבישות חכמות אחרות, אנו יכולים לשפר את חיינו בסיוע טכנולוגיה, לעומת שהתודעה שלנו תידחק על ידה. הוא תיאר את התיאוריה שלו לראיון שלנו:
HI היא אינטליגנציה הנובעת מכך שהאדם נמצא בלולאת המשוב של התהליך החישובי. בינה מלאכותית אינה מציאות מיידית, בעוד ש-HI נמצא כאן ועכשיו ובעל קיימא. HI הוא מהפכה בתקשורת, לא רק חישוב. זה באמת עניין של אנשים שאכפת להם מאנשים, לא למכונות שאכפת להם מאנשים.
בהשוואה לרעיון הסינגולריות כפי שתואר על ידי ריי קורצווייל (הרגע בזמן שבו מכונות צוברות תחושה אמיתית), התיאור של מאן של האינטליגנציה ההומניסטית במלואה הואחושניות.זוהי תפיסה מושכת: שטכנולוגיה המסייעת לאנושות לקראת חדשנות גדולה יותר יכולה להכיל חמלה על מחשוב כמטרה העיקרית שלה.
HI כולל אלמנטים שמצלצלים מהםטרנס-הומניזם,או H+, הרעיון שנוכל לשנות את המצב האנושי על ידי מיזוג טכנולוגיה עם גופנו.
אַשׁרַאי:
תְמוּנָה:סטיב מאן
בעוד שרבים מאיתנו מודאגים מהרעיון שלבליעת חיישניםאוֹמחליפים את העין שלנו במצלמה,אנחנו לא חושבים פעמיים על גפיים תותבות (גם אם כןמוטבע עם סמארטפון).
ברומן המדע הבדיוני של קלייד דה סוזהזכרונות עם מאיהעם זאת, AI ומציאות רבודה מוסיפים לתערובת הטרנס-אנושית (בצורה של ממשקים הפטיים) על ידי דמיון כיצד נתקשר עם האווטרים המחודשים של יקירינו. הקונספט מרתק ואמין מיד. חשבו על נפח התוכן סביב אדם: תמונות, סרטונים ומילים (סנטימנט המתבטא בטקסטים, מיילים ופוסטים ברשתות חברתיות). לא יעבור זמן רב עד שנוכל להמציא או ליצור מחדש אנשים בצורה וירטואלית.
דה-סוזה ציין ב-anראיון עם ג'וליו פריסקועבור הבלוג Kurzweil, "Memories with Maya הוא סיפור שמטרתו ליצור רעיונות, המבוססים על מדע קשה, על האופן שבו AI, AR והתקדמות בתחום הלמידה העמוקה והשחזור הקיברנטי יאפשרו לנו בסופו של דבר להחיות מתים. בקרוב יגיע זמן שבו יהיה צורך לענות על שאלות על השימוש האתי בטכנולוגיה כזו והשפעתה על יחסי אנוש אינטימיים ועל החברה". הספר מדמיין את ההשלכות של החיים אם היינו יכולים בעצם לשמור על אהובינו בחיים מעבר לזמן שגופם יפסיק לתפקד פיזית.
מתי הזמן הטוב ביותר לדון בשימושים האתיים של טכנולוגיות אלו? עַכשָׁיו.
העומק והכיוון
"אני רעב לעומק."פיטר ונדר אוורההוא מייסד שותף שלInnotribe, זרוע החדשנות שלמָהִיר, הספקית העולמית של שירותי הודעות פיננסיות מאובטחות, והיוצרת במשותף שלCorporate Rebels United, ארגון שנועד ליצור שיטות ערך ניתנות לפעולה בתוך ארגונים.
כשקרא ל-Corporate Rebels United "עשה טנק" לעומת צוות חשיבה, למד ונדר אוורה למתן את התשוקה שלו לטכנולוגיה בלהט לחיבור אנושי. כמו ההתמקדות של מאן באנשים שדואגים לאנשים, ונדר אוורה קורא למהפכה המתמקדת בהעצמת בני אדם, אותה תיאר בפוסט האחרון בבלוג,"עתידים דיסטופיים:"
הגענו לנקודה שבה האפשרות היחידה שלנו [מהדיסטופיה] היא מהפכה [להיות] עבדי נתונים ולהתפתח כסוג חדש של מינים באוקיינוס הנתונים, בניסיון לשמר את מה שהופך אותנו לאנושיים... נצטרך סט חדש של שיטות ליצירת ערך; שבו עבדי נתונים מעזים לקום ולקרוא למהפכה... אבל יהיה קשה מאוד להחזיר את הגלגל לאחור שכבר הופעל לפני כמה עשורים.
אני לא מברך על אדוני הרובוטים שלנו.
אני מברך על היבטים של למידה מואצת ושיפורים בבריאות, אבל לא על הסכמה מלאה של תקופה שבה AI יקבל תחושה, כזו שרבים מזרזים. אני עם פיטר ונדר אוורה -- אני אוהב טכנולוגיה, אבל אני רוצה להיות חלק מהמהפכה שמעזה לקום ולהגיד, "אני אוהב להיות בן אדם! אני רוצה שבני אדם ישמרו על אוטונומיה על מכונות!"
התקווה שלי היא שכמו המלאכי בראשית,הקרן של 100 מיליון דולר שנוצרה כדי לדרבן האצה בחברות סטארט-אפ של בינה מלאכותית ורובוטיקה, מישהו יתגבר ויצדיק את ההשלכות של בינה מלאכותית לפני שישחרר אותה במלואה לאנושות.
עבור הרובוטים או הטכנולוגיה שעשויים לעלות על האינטליגנציה שלנו בעתיד הקרוב, התבונן בספרה האמצעית הבשרנית שלי ושמע אותי בוכה: "אני מנופף בחלקי הפרטיים אל דודה שלך! אמא שלך הייתה אוגר ואביך מריח של סמבוק!" --ג'ון קליז, מונטי פייתון והגביע הקדוש.
זה אולי מאתגר לאמץ אנושיות כה מטורפת להפליא, אבל לפעמים זה בטוח יותר ממסע אחר הלא נודע.