קרדיט: CFOTO/Future Publishing דרך Getty Images
השבוע,OpenAIראש משותף של צוות "מישור העל" (המתעלם מבעיות הבטיחות של החברה), יאן לייק, התפטר. בשרשור ב-X (לשעבר טוויטר), המנהיג הבטיחות הסביר מדוע עזב את OpenAI, כולל שהואלא הסכים עם הנהגת החברהעל "סדרי העדיפויות" שלה במשך "די הרבה זמן", כל כך הרבה זמן שהגיע ל"נקודת שבירה".
למחרת, מנכ"ל OpenAI, סם אלטמן, והנשיא והמייסד המשותף גרג ברוקמן הגיבו לטענות של לייק כי החברה אינה מתמקדת בבטיחות.
בין היתר, לייק אמר כי "תרבות הבטיחות והתהליכים של OpenAI תפסו מושב אחורי למוצרים מבריקים" בשנים האחרונות, וכי הצוות שלו נאבק להשיג את המשאבים כדי לבצע את עבודת הבטיחות שלהם.
"איחורנו מזמן להיות רציניים להפליא לגבי ההשלכות של AGI [בינה כללית מלאכותית]," כתב לייק. "עלינו לתעדף את ההכנות לקראתם כמיטב יכולתנו".
אלטמן הגיב תחילהבפוסט מחדש של Leike ביום שישי, שקבע שלייקה צודקת של-OpenAI יש "הרבה יותר מה לעשות" והיא "מחויבת לעשות את זה". הוא הבטיח שיגיע פוסט ארוך יותר.
בשבת, ברוקמן פרסם תגובה משותפת שלו ומאלטמן ב-X:
ייתכן שהציוץ נמחק
לאחר שהביעו תודה על עבודתו של לייק, אמרו ברוקמן ואלטמן שקיבלו שאלות בעקבות ההתפטרות. הם חלקו שלוש נקודות, הראשונה הייתה ש-OpenAI העלתה את המודעות ל-AGI "כדי שהעולם יוכל להתכונן לזה טוב יותר".
מהירות אור ניתנת לריסוק
"הדגמנו שוב ושוב את האפשרויות המדהימות מהגדלת למידה עמוקה וניתחנו את ההשלכות שלהן; קראנו לממשל בינלאומי של AGI לפני ששיחות כאלה היו פופולריות; ועזרנו לחלוץ את המדע של הערכת מערכות בינה מלאכותית לסיכונים קטסטרופליים", כתבו.
הנקודה השנייה היא שהם בונים יסודות לפריסה בטוחה של הטכנולוגיות הללו, והשתמשו בעבודה שעשו העובדים כדי "להביא את [Chat]GPT-4 לעולם בצורה בטוחה" כדוגמה. השניים טוענים שמאז -OpenAI הוציאה את ChatGPT-4במרץ 2023 - החברה "שיפרה באופן מתמיד את התנהגות המודל ואת ניטור התעללות בתגובה ללקחים שנלמדו מהפריסה".
הנקודה השלישית? "העתיד הולך להיות קשה יותר מהעבר", כתבו. OpenAI צריכה להמשיך להעלות את עבודת הבטיחות שלה כשהיא משחררת דגמים חדשים, הסבירו ברוק ואלטמן, וציטטו את החברהמסגרת מוכנותכדרך לעזור לעשות זאת. לפי העמוד שלה באתר של OpenAI, מסגרת זו חוזה "סיכונים קטסטרופליים" שעלולים להיווצר, ומבקשת למתן אותם.
לאחר מכן, ברוקמן ואלטמן ממשיכים לדון בעתיד, שבו המודלים של OpenAI משולבים יותר בעולם ויותר אנשים מקיימים איתם אינטראקציה. הם רואים בכך דבר מועיל, ומאמינים שאפשר לעשות זאת בבטחה - "אבל זה ידרוש כמות עצומה של עבודה יסודית". בשל כך, החברה עשויה לדחות את לוחות הזמנים של הפרסום כדי שהדגמים "יגיעו לסרגל הבטיחות [שלה]".
"אנחנו יודעים שאנחנו לא יכולים לדמיין כל תרחיש עתידי אפשרי", אמרו. "אז אנחנו צריכים לקבל לולאת משוב הדוקה מאוד, בדיקות קפדניות, שיקול זהיר בכל שלב, אבטחה ברמה עולמית והרמוניה של בטיחות ויכולות."
המנהיגים אמרו ש-OpenAI תמשיך לחקור ולעבוד עם ממשלות ובעלי עניין בנושא בטיחות.
"אין ספר הפעלה מוכח כיצד לנווט את הנתיב ל-AGI. אנחנו חושבים שהבנה אמפירית יכולה לעזור ליידע את הדרך קדימה", הם סיכמו. "אנו מאמינים הן במתן היתרון האדיר והן בעבודה לצמצום הסיכונים החמורים; אנו לוקחים את התפקיד שלנו כאן ברצינות רבה ושוקלים בקפידה משוב על הפעולות שלנו".
ההתפטרות והמילים של לייק מורכבות מהעובדה שהמדען הראשי של OpenAI, איליה סוצקברהתפטר גם השבוע."#WhatDidIlyaSee"הפך לנושא מגמתי ב-X, מה שמסמן את הספקולציות לגבי מה המנהיגים הבכירים ב-OpenAI ידועים. אם לשפוט לפי השְׁלִילִי תְגוּבָה אֶל של היום הַצהָרָהמברוקמן ואלטמן, זה לא הפיג שום ספקולציות.
נכון לעכשיו, החברה מתקדמת עם המהדורה הבאה שלה:ChatGPT-4o, עוזר קולי.
אנה איובין היא עורכת שותפה של תכונות ב-Mashable. בעבר, ככתבת מין ומערכות יחסים, היא סיקרה נושאים החל מאפליקציות היכרויות ועד כאבי אגן. לפני Mashable, אנה הייתה עורכת חברתית ב-VICE והייתה עצמאית עבור פרסומים כמו Slate ו-Columbia Journalism Review. עקבו אחריה ב-X@annaroseiovine.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.