אילון מאסק, יו"ר טסלה, נואם בקונגרס החדשות העולמי בדטרויט, יום שלישי, 13 בינואר 2015. קרדיט: פול סנסיה
תקראו לזה פאניקת הכחדה מונעת, אנשים חכמים קונים הייפ של מדע בדיוני או פשוט עמדה נבונה בנושא עתידי אפשרי, אבל הפחד סביבבינה מלאכותיתצובר יותר ויותר אחיזה בקרב בעלי אישורים כדי לגבות את המצוקה.
הדוגמה האחרונה לאגיטה זו של AI המתבטאת בפעולה בעולם האמיתי מגיעה בצורה שלמכתב פתוחהקורא לנקוט אמצעי בטיחות שפורסמו באינטרנט ביום ראשון ונחתמו על ידי לא אחר מאשר של טסלהאילון מאסקופיזיקאי תיאורטי מפורסםסטיבן הוקינג.
[seealso slug="stephen-hawking-artificial-intelligence-bbc"]
מפתחי הבינה המלאכותית המובילים בעולם חותמים על מכתב פתוח הקורא למחקר בטיחות בינה מלאכותית:https://t.co/ShWc8F7Kyq
- אילון מאסק (@elonmusk)11 בינואר 2015
בהתבסס על הערות שנאמרו בקונגרס העולמי של חדשות Automotive News בדטרויט ביום שלישי, חששותיו של מאסק לגבי מערכות אוטונומיות מתפשטות גם למכוניות.
"אנשים צריכים להיות מודאגים לגבי הבטיחות עם כלי רכב אוטונומיים", אמר מאסקדוחב-The Verge. "הסטנדרט לבטיחות צריך להיות הרבה יותר גבוה עבור מכוניות בנהיגה עצמית".
אבל זה בערך עד שמאסק הלך עם דאגותיו בינה מלאכותית באירוע, למרות שלוהערות קודמותעל הנושאהם הרבה יותר צבעוניים.
אחרים החותמים את שמם דיגיטלית על מסמך הבטיחות בינה מלאכותית כוללים תיאורטיקן ייחודיות וסופר המדע הבדיוני ורנו וינג', ג'ון גאטה של לוקאספילם (אחד האנשים מאחורי האפקטים המיוחדים בסרט האפוקליפסה של AI The Matrix), חוקרים מאוקספורד, קיימברידג', MIT ו סטנפורד וכן בכירים מגוגל, מיקרוסופט ואמזון.
הכתב, שכותרתו "עדיפויות מחקר לבינה מלאכותית חזקה ומועילה: מכתב פתוח", מציג גישה רגועה ושמרנית במיוחד לנושא, ללא אזכור ישיר של AI שהולך ונוכל - לפחות, לא בהתחלה. אבל חפרו עמוק יותר, בתוך "מסמך עדיפויות מחקר" המצורף, ושם תמצאו את הפחדים האמיתיים מאחורי המכתב הפתוח מתוארים בצורה קצת יותר ברורה.
בקטע הרשום תחת "שליטה", המסמך קובע:
עבור סוגים מסוימים של מערכות בינה מלאכותית קריטיות לבטיחות - במיוחד כלי רכב ופלטפורמות נשק - ייתכן שיהיה רצוי לשמור על צורה כלשהי של שליטה אנושית משמעותית, בין אם זה אומר אדם בלולאה, בלולאה או פרוטוקול אחר. בכל אחד מהמקרים הללו, תהיה צורך בעבודה טכנית על מנת להבטיח שליטה אנושית משמעותית.
מאוחר יותר, המסמך ממליץ על בקרות עבור בינה מלאכותית, שמתחילה לרמוז על החומר הבשרני (כלומר בינה מלאכותית משתוללת):
בפרט, אם הבעיות של תקפות ובקרה לא נפתרות, זה עשוי להיות שימושי ליצור "מכולות" עבור מערכות AI שעלולות להיות להם התנהגויות והשלכות לא רצויות בסביבות פחות מבוקרות. שני הצדדים התיאורטיים והמעשיים של שאלה זו מצדיקים בדיקה.
אבל הקשר הישיר ביותר להשתלטות הבינה המלאכותית מגיע בהתייחסות המסמך למחקר שכותרתו "המחקר בן מאה השנים של סטנפורד לאינטליגנציה מלאכותית".
המחקר בן מאה השנים של סטנפורד לאינטליגנציה מלאכותית כולל "אובדן שליטה במערכות בינה מלאכותית" כתחום מחקר, המדגיש במיוחד את החששות מהאפשרות ש"נוכל יום אחד לאבד שליטה על מערכות בינה מלאכותית באמצעות עלייתן של אינטליגנציות על שאינן פועלות בהתאם לרצונות אנושיים - ושמערכות חזקות כאלה יאימו על האנושות".
מתארח על ידימכון עתיד החיים, ארגון ללא מטרות רווח בראשותו של מייסד סקייפ ג'אן טאלין ופרופסורים וסטודנטים מ-MIT, הרווארד, UC סנטה קרוז ואוניברסיטת בוסטון, הקבוצה מתארת את משימתה כתמיכה ב"מחקר ויוזמות לשמירה על החיים" ופיתוח "דרכים לאנושות לנווט מסלול משלה בהתחשב בטכנולוגיות ואתגרים חדשים."
עם זאת, ההיסטוריה לא תמיד מתאימה בצורה מסודרת לתחזיות שלנו. אם הדברים ימשיכו כפי שהם נמשכו עםממשקי מוח למכונהנהיה נפוץ יותר ויותר, סביר להניח שנצטרך להתמודד עם סוגיית בני האדם המשופרים (דיגיטלית, מכנית ו/או כימית) הרבה לפני שה-AI מתקרב לחוש.
ובכל זאת, בין אם אתה מאמין שמחשבים יום אחד יהיו חזקים מספיק כדי לצאת ולמצוא את הדרכים שלהם, שעלולות להתנגש עם האנושות, עצם העובדה שכל כך הרבה אנשים אינטליגנטים מרגישים שהנושא שווה עמדה ציבורית צריכה להספיק כדי לתפוס את תשומת הלב שלך.
עכשיו נקווה שמכתב האזהרה הפתוח הזה יתגלה כלא נחוץ, כי להיות בן אדם לחיות מחמד כנראה לא יהיה כיף גדול.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.