הקבוצה מזהירה מפני פתיחת "תיבת פנדורה" בחתירה לפיתוח כלי לחימה אוטונומיים.
כן, בוא ננסה להימנע מעולם מלא בחבר'ה האלה. קרדיט: AFP/Getty Images
אילון מאסק, מייסד שותף של Google DeepMind, מוסטפא סולימן, ו-114 מומחי בינה מלאכותית ורובוטיקה מובילים נוספים חברו יחדיו כדי לבקש מהאו"ם לאסור את השימוש במה שנקרא רובוטים רוצחיםמכתב פתוחפורסם היום.
הקבוצה מודאגת מהשימוש הפוטנציאלי בנשק אוטונומי קטלני וכיצד הם עשויים להיות מיושמים בעתיד, והם כתבו הערה קצרה שפרסמהמכון עתיד החיים. הטקסט פורסם לציבור כדי להתחיל את פתיחת ה-ועידה משותפת בינלאומית בנושא בינה מלאכותית (IJCAI 2017) במלבורן, אוסטרליה, לפי אהודעה לעיתונות.
"נשק אוטונומי קטלני" מתייחס לרחפנים, מקלעים אוטונומיים, טנקים וצורות אחרות של כלי נשק הנשלטים על ידי AI בשדות הקרב של הדור הבא.
מאסק, למשל, חושש מהפוטנציאל של AI להתקלקל,לאחרונה קורא לזה"האיום הגדול ביותר שעומד בפנינו כציוויליזציה", אפילו מעל נשק גרעיני - אבל המכתב הפתוח הוא הפעם הראשונה שקבוצה של חברות בינה מלאכותית ורובוטיקה חוברה כוחות כדי להגיש עתירה לאו"ם במיוחד לגבי נשק אוטונומי, לפי הפרסום.
ועידת הביקורת של האו"ם על האמנה בנושא נשק קונבנציונלי הסכימה פה אחד להתחיל בדיונים רשמיים על איסור על נשק אוטונומי, ו-19 מהמדינות החברות כבר תמכו באיסור מוחלט על הרובוטים הרוצחים. הקבוצה הייתה אמורה להיפגש ב-21 באוגוסט, אך נדחתה עד לנובמברמַזָל.
Mashable Top Stories
"ברגע שתיפת הפנדורה הזו תיפתח, יהיה קשה לסגור אותה."
המכתב הפתוח, שנחתם על ידי נציגים מחברות בשווי כולל של מיליארדי דולרים ב-26 מדינות, עשוי להפעיל לחץ עוד יותר לגרום לאיסור לקרות.
אחד מכלי הנשק האוטונומיים הקטלניים שכבר נמצאים בעולם. קרדיט: מכון העתיד של החיים
הטקסט האמיתי של המכתב קצר ונוקב. אתה יכול לקרוא את זהכָּאן, אבל כללנו את הקטע החיוני ביותר להלן:
נשק אוטונומי קטלני מאיים להפוך למהפכה השלישית בלוחמה. לאחר שפותחו, הם יאפשרו להילחם בסכסוך מזוין בקנה מידה גדול מתמיד, ובטווחי זמן מהירים ממה שבני אדם יכולים להבין. אלה יכולים להיות כלי נשק טרור, כלי נשק שעריצים ומחבלים משתמשים בהם נגד אוכלוסיות תמימות וכלי נשק שנפרצו כדי להתנהג בדרכים לא רצויות. אין לנו הרבה זמן לפעול. ברגע שתיבת הפנדורה הזו תיפתח, יהיה קשה לסגור אותה.
השותף לחתום יושע בנג'יו, מומחה ללמידה עמוקה שהקים את Element AI, מודאג יותר מאשר רק מהנזק המיידי שנשק אוטונומי קטלני עלול לגרום. הוא ציין את הפוטנציאל "לפגוע בפיתוח נוסף של יישומי הבינה המלאכותית" על ידי התמקדות בלוחמה ובתגובה הבלתי נמנעת נגד הטכנולוגיה כסיבה מרכזית להשתתפותו במאמץ.
מכון עתיד החיים פרסם מכתב דומהבשנת 2015, אשר נחתם על ידי מאסק, סטיבן הוקינג ואחרים עם מסר המזהיר מפני הסכנות הרחבות יותר של AI, לא רק אלה שנוצרו ללוחמה.
הסכנה הנשקפת מבינה מלאכותית שאינה צבאית היא הרבה פחות דוחקת, מה שגורם לכמה מהצהרותיו של מאסק להרגישמפוצץ ומגוחךושלוירק חשוב עם מארק צוקרברגיותר מחזה תקשורתי מאשר ויכוח עם סיכון אמיתי. אבל הפוטנציאל של כלי נשק אוטונומיים לעשות נזק, כפי שנכתב במכתב הפתוח, כאן עכשיו. אני מקווה שהאו"ם מקשיב למומחים.
ברט וויליאמס הוא כתב טכנולוגי ב- Mashable. הוא כותב על חדשות טכנולוגיות, טרנדים ונושאים אחרים הקשורים למשיק עם עניין מיוחד בציוד לביש ובטכניקת פעילות גופנית. לפני Mashable, הוא כתב עבור Inked Magazine ו- Thrillist. עבודתו של ברט הופיעה גם ב-Fusion וב-AskMen, אם להזכיר כמה. אתה יכול לעקוב אחר ברט בטוויטר @bdwilliams910.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.