קרדיט: ג'סטין סאליבן/Getty Images.
עבור OpenAI, בשבועות האחרונים ישעָשׂוּי מְרוּבֶּה כותרות- ולא מהסיבות הטובות ביותר. הסיפור לא הסתיים שם: כמה עובדי OpenAI בהווה ובעבר, לצד עובדי Google DeepMind, קוראים כעת לחברות ה-AI המובילות שלהם על פיקוח, תרבות של ביקורת חונקת וחוסר שקיפות כללית.
במכתב פתוח, חושפי השחיתויות קראו בעצם לזכות לבקר בגלוי את טכנולוגיית הבינה המלאכותית והסיכונים הנלווים לה. הם כתבו כי בשל היעדר חובה לחלוק מידע עם גופים ממשלתיים ורגולטורים, "עובדים בהווה ובעבר הם בין האנשים הבודדים שיכולים לתת דין וחשבון לציבור", ואמרו שרבים מהם "חוששים צורות שונות של תגמול" על כך.
החותמים ביקשו מחברות בינה מלאכותית מתקדמות להתחייב לעקרונות מסוימים, כולל הקלת תהליך אנונימי לעובדים להעלות חששות הקשורים לסיכונים ושהחברות יתמכו ב"תרבות של ביקורת גלויה", כל עוד סודות מסחריים מוגנים ב התהליך. הם גם ביקשו מהחברות לא להגיב באלו ש"חולקים בפומבי מידע סודי הקשור לסיכון לאחר שתהליכים אחרים נכשלו".
מהירות אור ניתנת לריסוק
במכתב, הקבוצה גם נגעה בסיכונים של AI שהם מכירים בהם: מההתבססות של אי-השוויון הקיים, להחמרת המידע השגוי ועד לאפשרות של הכחדה אנושית.
דניאל קוקוטאילו, חוקר OpenAI לשעבר ואחד ממארגני הקבוצה,אמר לניו יורק טיימסש-OpenAI "דוהרת בפזיזות" כדי להגיע לראש משחק הבינה המלאכותית. החברה עמדה בפני ביקורת על תהליכי הבטיחות שלה, עםההשקה האחרונה של צוות בטיחות פנימיגם הרמת גבות על זההמנכ"ל סם אלטמןיושב ליד ההגה.
מירה היא כתבת תרבות ב-Mashable, שהצטרפה לצוות הבריטי בשנת 2021. היא כותבת על תרבות דיגיטלית, בריאות נפשית, טכנולוגיה גדולה, בידור ועוד. עבודתה פורסמה גם בהניו יורק טיימס,סְגָן,ווג הודו, ואחרים.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.