זה לא מחזיר הכל לקופסת פנדורה, זה רק סוגר את המכסה לעת עתה. קרדיט: Getty Images
מומחי בינה מלאכותית, טכנולוגים ומנהיגים עסקיים הם בין 1,000 העותרים פלוס המפצירים במעבדות בינה מלאכותית להשהות את האימון של מערכות "חזקות יותר מאשרGPT-4."
המכתב פתוחפורסם ביום רביעי על ידי Future of Life Institute, עמותה להפחתת סיכונים של טכנולוגיה טרנספורמטיבית. רשימת החתומים כוללת את מייסד שותף של אפל, סטיב ווזניאק, SpaceX, טסלה, ומנכ"ל טוויטר אילון מאסק, מנכ"ל יציבות בינה מלאכותית Emad Mostaque, מנהל המרכז לטכנולוגיה הומאנית טריסטן האריס ויושוע בנג'יו, מייסד מכון המחקר AI Mila.
"בינה מלאכותית מתקדמת יכולה לייצג שינוי עמוק בהיסטוריה של החיים על פני כדור הארץ, ויש לתכנן ולנהל אותה בזהירות ובמשאבים המתאימים", נכתב במכתב. "למרבה הצער, רמה זו של תכנון וניהול לא מתרחשת, למרות שבחודשים האחרונים נראו מעבדות בינה מלאכותית ננעלות במרוץ שיצא משליטה לפיתוח ופריסה של מוחות דיגיטליים חזקים יותר, שאף אחד - אפילו לא היוצרים שלהם - יכול להבין , לחזות או לשלוט בצורה מהימנה."
חברות כמו OpenAI, מיקרוסופט וגוגל טוענות במלוא המהירות עם דגמי הבינה המלאכותית שלהן. מונעים על ידי שאיפות לפינה את שוק הבינה המלאכותית, התקדמויות חדשות ושחרור מוצרים מוכרזים על בסיס כמעט יומי. אבל במכתב נאמר שהכל קורה מהר מדי מכדי שיישקלו דאגות אתיות, רגולטוריות ובטיחותיות.
מהירות אור ניתנת לריסוק
"עלינו לשאול את עצמנו: האם לתת למכונות להציף את ערוצי המידע שלנו בתעמולה ואי אמת? האם עלינו להפוך את כל העבודות לאוטומטיות, כולל הממלאות בהן? האם עלינו לפתח מוחות לא אנושיים שעשויים בסופו של דבר לעלות על מספרם, להתחכם, מיושן ולהחליף אותנו? אנחנו מסתכנים באובדן שליטה על הציוויליזציה שלנו?"
המכתב הפתוח קורא להשהות של שישה חודשים בניסויי AI ש"צריכים להתפתח רק ברגע שאנו בטוחים שההשפעות שלהם יהיו חיוביות והסיכונים שלהם יהיו ניתנים לניהול". היא ממליצה למעבדות בינה מלאכותית לנצל את הזמן הזה כדי לפתח ביחד פרוטוקולי בטיחות שניתנים לביקורת על ידי צדדים שלישיים. אם הם לא עוצרים, ממשלות צריכות להתערב ולהטיל מורטוריום.
במקביל, העתירה קוראת לקובעי המדיניות להיות מעורבים עם רשויות רגולטוריות המוקדשות לפיקוח ומעקב אחר מערכות בינה מלאכותית, להבדיל בין תוכן אמיתי לבין תוכן שנוצר, ביקורת והסמכות למודלים של בינה מלאכותית, אחריות משפטית ל"נזק שנגרם על ידי בינה מלאכותית", מימון ציבורי עבור מחקר בינה מלאכותית, ומוסדות "על התמודדות עם השיבושים הכלכליים והפוליטיים הדרמטיים (במיוחד לדמוקרטיה) שיגרום הבינה המלאכותית".
המכתב לא אומר להשהות את כל פיתוחי הבינה המלאכותית. זה רק אומר לשאוב את הבלמים. חברות זקוקות לפסק זמן מהיר כדי לבנות את התשתית המתאימה כדי שמהפכת ה-AI תוכל להיות בטוחה ומועילה לכולם. בואו נהנה מקיץ ארוך של AI", מסכם המכתב, "לא למהר לא מוכן לנפילה".
ססילי היא כתבת טכנולוגיה ב-Mashable שמסקרת בינה מלאכותית, אפל ומגמות טכנולוגיות מתפתחות. לפני שקיבלה את התואר השני שלה בבית הספר לעיתונאות קולומביה, היא בילתה מספר שנים בעבודה עם סטארטאפים ועסקים בעלי השפעה חברתית עבור Unreasonable Group ו-B Lab. לפני כן, היא הקימה עסק לייעוץ סטארט-אפים למרכזי יזמות מתפתחים בדרום אמריקה, אירופה ואסיה. אתה יכול למצוא אותה בטוויטר בכתובת@cecily_mauran.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.