OpenAI זקוקה לרגולציה אינטנסיבית יותר, אומרים חברי דירקטוריון לשעבר והדחה של אלטמן. קרדיט: Kent Nishimura / Getty Images
לְשֶׁעָבַרOpenAIחברי הדירקטוריון קוראים להגברת הרגולציה הממשלתית על החברה מכיוון שהנהגתו של המנכ"ל סם אלטמן נחשפת לירי.
הלן טונר וטאשה מקולי - שתיים מתוך כמה עובדים לשעבר שהרכיבו אתקאסט של דמויותזֶההדיח את אלטמן בנובמבר- אומרים שהחלטתם לדחוף את המנהיג החוצה ו"להציל" את המבנה הרגולטורי של OpenAI נבעה מ"דפוסי התנהגות ארוכי שנים שהפגין מר אלטמן", ש"ערערו את הפיקוח של הדירקטוריון על החלטות מפתח ופרוטוקולי בטיחות פנימיים".
כתיבה בכתבה בהוצאתהאקונומיסטב-26 במאי טוענים טונר ומקאולי שדפוס ההתנהגות של אלטמן, בשילוב עם הסתמכות על ממשל עצמי, הוא מתכון לאסון AGI.
בעוד השניים אומרים שהם הצטרפו לחברה "אופטימיים בזהירות" לגבי עתידה של OpenAI, מחוזקים על ידי המניעים האלטרואיסטיים לכאורה של החברה ללא מטרות רווח בלבד, השניים הטילו מאז ספק במעשיהם של אלטמן והחברה. "מספר מנהיגים בכירים חלקו באופן פרטי חששות כבדים עם הדירקטוריון", הם כותבים, "אומרים שהם מאמינים שמר אלטמן טיפח 'תרבות רעילה של שקר' ועסק ב'התנהגות [שאפשר לאפיין] כהתעללות פסיכולוגית'".
"ההתפתחויות מאז חזר לחברה - כולל החזרתו לדירקטוריון ועזיבתו של כישרונות בכירים ממוקדי בטיחות - מבשרים רעות לניסוי OpenAI בממשל עצמי", הם ממשיכים. "אפילו עם הכוונות הטובות ביותר, ללא פיקוח חיצוני, רגולציה עצמית מסוג זה תהיה בלתי אכיפה, במיוחד בלחץ של תמריצי רווח עצומים. ממשלות חייבות למלא תפקיד פעיל".
מהירות אור ניתנת לריסוק
במבט לאחור, טונר ומקולי כותבים, "אם כל חברה הייתה יכולה לשלוט בעצמה בהצלחה תוך פיתוח בטוח ואתי של מערכות בינה מלאכותית מתקדמות, זה היהOpenAI."
חברי הדירקטוריון לשעבר טוענים בניגוד לדחיפה הנוכחית לדיווח עצמי ולרגולציה חיצונית מינימלית למדי של חברות בינה מלאכותית כאשר החוקים הפדרליים מתעכבים. בחו"ל, כוחות משימה של AI כבר מוצאים פגמים בהסתמכות על ענקיות טכנולוגיה שיובילו את מאמצי הבטיחות. בשבוע שעבר הוציא האיחוד האירופי אאזהרה של מיליארד דולר למיקרוסופטלאחר שלא הצליחו לחשוף סיכונים פוטנציאליים של CoPilot ו-Image Creator המופעלים על ידי בינה מלאכותית. דו"ח אחרון של מכון AI Safety Institute בבריטניה מצא כי אמצעי ההגנה של כמה מהמודלים הציבוריים הגדולים ביותר של שפה גדולה (LLMs) נשברו בקלות על ידי הנחיות זדוניות.
בשבועות האחרונים, OpenAI עמדה במרכז שיחת הרגולציה של AI בעקבות סדרה של התפטרויות בפרופיל גבוה של עובדים בכירים שציינו דעות שונות לגבי עתידה. לאחר שמייסד שותף וראש צוות המערך העל שלה, איליה סוצקבר, ומנהיגו יאן לייק עזבו את החברה, OpenAI פירקה את צוות הבטיחות הפנימי שלה.
לייק אמר שהוא מודאג מהעתיד של OpenAI, מכיוון ש"תרבות הבטיחות והתהליכים תפסו את המושב האחורי למוצרים מבריקים".
אלטמן ספג אש עבור חברה שנחשפה אזמדיניות יציאה מהמטוסמה שמאלץ עובדים עוזבים לחתום על NDA שמגבילים אותם מלומר כל דבר שלילי על OpenAI או להסתכן באובדן כל הון עצמי שיש להם בעסק.
זמן קצר לאחר מכן, אלטמן והנשיא והמייסד השותף גרג ברוקמןהגיב למחלוקת, כותב ב-X: "העתיד הולך להיות קשה יותר מהעבר. אנחנו צריכים להמשיך להעלות את עבודת הבטיחות שלנו כדי להתאים את ההימור של כל דגם חדש... אנחנו גם ממשיכים לשתף פעולה עם ממשלות ובעלי עניין רבים בנושא בטיחות. אין ספר הפעלה מוכח כיצד לנווט את הנתיב אל AGI."
בעיני רבים מהעובדים לשעבר של OpenAI, הפילוסופיה ההיסטורית של "קל-מגע" של רגולציה באינטרנט לא הולכת לחתוך אותה.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.