אנחנו כבר ב-2017 ובמצבלא השתפר, אז הנה מגיעה ההתראה השגרתית של הפיזיקאי התיאורטי הידוע בעולם, סטיבן הוקינגכולנו נמות-- והכל באשמתנו.
במהלך אראיון עםהטיימס, הוקינג חזר על התפיסה שהאנושות מתמודדת עם איומים קיומיים משינויי אקלים, בינה מלאכותית והכחדת מינים המונית.
הוא גם הזהיר כי הנטייה האנושית לתוקפנות, הקשורה להתקדמות טכנולוגית, עלולה לסמן את ההרס שלנו (בערך ב1,000 שנים):
"מאז שהציוויליזציה התחילה, התוקפנות הייתה שימושית ככל שיש לה יתרונות הישרדותיים ברורים", אמר. "זה קשור לגנים שלנו על ידי האבולוציה הדרוויניסטית.
"עכשיו, לעומת זאת, הטכנולוגיה התקדמה בקצב כזה שהתוקפנות הזו עלולה להרוס את כולנו על ידי מלחמה גרעינית או ביולוגית", המשיך. "אנחנו צריכים לשלוט באינסטינקט המורשת הזה לפי ההיגיון וההיגיון שלנו. אנחנו צריכים להיות מהירים יותר לזהות איומים כאלה ולפעול לפני שהם יוצאים משליטה".
מהירות אור ניתנת לריסוק
מה הפתרון אם כך? התשובה עשויה להפתיע אותך:
"ייתכן שזה אומר צורה כלשהי של ממשל עולמי. אבל זה עשוי להפוך לעריצות. כל זה אולי נשמע קצת עמוס אבדון, אבל אני אופטימיסט. אני חושב שהמין האנושי יקום כדי לעמוד באתגרים האלה".
אתה קורא לזה אופטימיות? טוֹב.
הקוסמולוג בן ה-74 אינו חדש בהערות אפוקליפטיות.
באוקטובר, הוקינגהזהירשיצירת הבינה המלאכותית (בינה מלאכותית) תהיה "הטוב ביותר, או הדבר הגרוע ביותר, שאי פעם קרה לאנושות".
"אנחנו מבלים הרבה זמן בלימוד היסטוריה", אמר הוקינג, "שבואו נודה בזה, היא בעיקר ההיסטוריה של הטיפשות. אז זה שינוי מבורך שאנשים לומדים במקום את עתיד האינטליגנציה".
לפני שנתיים, הואסיפרה-BBC שפיתוח הבינה המלאכותית יכול "לאיית את סופו של המין האנושי". לדאגותיו חלקו אילון מאסק, ביל גייטס וסטיב ווזניאק, יחד עם יותר מ-8,000 חוקרים ומדענים מובילים,חָתוּםמכתב המזהיר כי בינה מלאכותית עלולה להיות מסוכנת יותר מנשק גרעיני.