OpenAIהואמפורסםלא כל זהלִפְתוֹחַ. מוצרי AI מסנוורים ומתקדמים צצים ללא אזהרה, ומייצרים התרגשות וחרדה באותה מידה (יחד עם הרבהבּוּז). אבל בדומה לפיתוח המוצר שלה, התרבות הפנימית של החברה אטומה בצורה יוצאת דופן, מה שהופך את זה למדאיג עוד יותר שיאן לייקה, המנהל המשותף של צוות "העל" שלה - עמדה המשקיפה על בעיות הבטיחות של OpenAI - התבטא זה עתה נגד חֶברָה.
ייתכן שהציוץ נמחק
משהו כזה צפו בחלקו על ידי אלה שצפו ב-OpenAI מקרוב. המדען הראשי לשעבר בעל הפרופיל הגבוה של החברה, איליה סוצקבר, התפטר בפתאומיות ביום שלישי, ו-"#WhatDidIlyaSee" הפך להאשטאג מגמתיפעם נוספת. הניסוח היומרני של ההאשטאג - במקור ממרץ, כאשר סוצקברהשתתף בתחבולות הארגוניותשגרם למנכ"ל סם אלטמן לפטר לזמן קצר - גרם לזה להישמע כאילו סוצקבר הביט בעולם מבעד לזכוכית הבינה המלאכותית, וברח ממנה בצרחות.
בסדרת פוסטים ב-X (לשעבר טוויטר) ביום שישי, לייק נתן לציבור כמה רמזים מדוע עזב.
הוא טען שהוא "לא מסכים עם הנהגת OpenAI לגבי סדרי העדיפויות המרכזיים של החברה במשך זמן רב", וכי הוא הגיע ל"נקודת שבירה". הוא חושב שהחברה צריכה להיות ממוקדת יותר ב"אבטחה, ניטור, מוכנות, בטיחות, חוסן יריב, (על) התאמה, סודיות, השפעה חברתית ונושאים קשורים".
מהירות אור ניתנת לריסוק
ייתכן שהציוץ נמחק
"די קשה לפתור את הבעיות האלה, ואני מודאג שאנחנו לא במסלול להגיע לשם", אמר לייק, וציין כי הוא הרגיש שהוא והצוות שלו "שטים נגד הרוח" כשניסו לאבטח. המשאבים הדרושים להם כדי לבצע את עבודת הבטיחות שלהם.
ייתכן שהציוץ נמחק
נראה כי לייק רואה ב-OpenAI נושאת אחריות עצומה, וכותבת, "בניית מכונות חכמות מאדם היא מאמץ מסוכן מטבעו." זה הופך את זה להרבה יותר מפחיד שלדעת לייק, "בשנים האחרונות, תרבות הבטיחות והתהליכים תפסו את המושב האחורי למוצרים מבריקים".
ללא ספק, לייק לוקח ברצינות את הנרטיב הפנימי של החברה בנוגע לעבודה לקראת בינה כללית מלאכותית, הידועה גם בשם AGI - מערכות שבאמת מעבדות מידע כמו בני אדם, הרבה מעבר ליכולות צרות דמויות LLM. "איחורנו מזמן להיות רציניים להפליא לגבי ההשלכות של AGI", כתב לייק. "עלינו לתעדף את ההכנות לקראתם כמיטב יכולתנו. רק כך נוכל להבטיח ש-AGI תועיל לאנושות כולה".
לדעתו של לייק, OpenAI צריכה "להפוך לחברת AGI הקודמת לבטיחות" והוא דחק בעובדיה הנותרים "לפעול עם הכובד המתאים למה שאתה בונה".
עזיבה זו, שלא לדבר על ההערות הללו, רק תוסיף שמן לרווחה כברחשש ציבוריסביב המחויבות של OpenAI, או היעדרה, לבטיחות בינה מלאכותית. מבקרים אחרים, לעומת זאת, ציינו שהפחדים סביב הכוח האדיר של AI כביכולמתפקד גם כמעין ערכת שיווק בדלת אחוריתעבור טכנולוגיה זו עדיין לא מוכחת במידה רבה.