עדכון: 22 בפברואר 2024, 7:21 בבוקר PSTמאמר זה כולל כעת הצהרה על התקרית הזו מ-OpenAI.
ChatGPT הוזה. כולנו יודעים את זה כבר. אבל ביום שלישי זה נראה כאילו מישהו החליק על קליפת בננהOpenAIהמטה והפעיל צ'ט בוט ניסיוני חדש ומהנה בשם Scrambler של מילה נרדפת.
ייתכן שהציוץ נמחק
לְמַעֲשֶׂה,ChatGPTהתחרפן במובנים רבים אתמול, אבל נושא אחד שחוזר על עצמו היה שזה יוצג בשאלה נורמלית - בדרך כלל משהו הקשור לעסקי הטכנולוגיה או לעבודה של המשתמש - ותגיב במשהו פרחוני עד כדי חוסר הבנה. לדוגמה, על פי פוסט X מאת האדריכל שון מקגווייר, הצ'אטבוט יעץ לו בשלב מסוים להבטיח ש"כספות ססקפדאליות מוצלבות וצעקתו של הקונסול מקן העורבים נענית על ידי ארנבות ביטניות וזהירות. כננת בערבה."
ייתכן שהציוץ נמחק
אֵלֶההםמילים, אבל נראה ש-ChatGPT כתב בגרסה קיצונית של הסגנון שבו תלמיד כיתה ט' מנצל לרעה את הרשאות התזאורוס שלו. "ביטין" היא דוגמה מספרת במיוחד. בדקתי את המלאהמילון אוקספורד אנגליוזה לא שם, אלא ויקימילוןאומרזה מתייחס לתיאולוג ביאטוס מליבנה, חוקר אחרית הימים שמת בשנת 800, אזאוּלַי"ביטין" פירושו "אפוקליפטי" בשלב מסוים באלף הראשון לספירה. או, אם לשפוט לפי איך זהמשמש בספרים ישנים מאובקים, אולי זו רק עוד דרך לומר "beatific" שאפשר לחשוב שהיא כבר מילה לא ברורה מספיק. במילים אחרות, ChatGPT העניק משמעות חדשה למונח "אזוטרי".
הצ'אטבוט עשה לזמן קצר דברים כאלה לטונות מהמשתמשים שלו. Redditor אחד, homtanksreddit, ציין ש-ChatGPT 3.5 - זה שזמין למשתמשים בחינם - היה כנראהלֹא מְעוּשֶׂה, אז ייתכן שהבאג השפיע רק על משתמשים משלמים.
במספר מקרים, ChatGPT התחיל בתשובה לשאלת המשתמש בשפה ברורה ועכשווית לפני שהתגלגל לגרסה המכילה יותר מדי קפאין שלמרטין פרינס. משתמש אחד ב-Reddit כלול באופן מועילתמונת מסך מ-ChatGPTשכלל הנחיה אחת המשמשת ליצירת הטירוף של ChatGPT. בו, המשתמש תיאר את הבאג ש-ChatGPT חווהל-ChatGPT, ואז שאל איך קוראים לבאג כזה. ואכן, התשובה של ChatGPT התחילה טוב:
אין מונח נפוץ וספציפי למקרה שבו מודל שפה כמו GPT (Generative Pre-trained Transformer) מתחיל לספק פלט שיורד מתגובה ברורה ורלוונטית לקישקושים או חוסר רלוונטיות מוחלט. עם זאת, ניתן לתאר בעיה זו כסוג של "השפלת פלט" או "מצב כשל" של ה-LLM (מודל שפה גדולה).
לא רע. אבל אז זה נהיה מוזר, וציין ש"שגיאה ברמת הבתים [...] יכולה לאבד הצללה מוסדית".
מהירות אור ניתנת לריסוק
...ואז זה נהיה מוזר יותר:
ביישום בעולם האמיתי, אם אתה מבחין במערכת NLP שמחזירה התחלות קנסות שלאחר מכן מתפרקות להפקרות או לקריסת כתובה, היא עשויה להיות כרוכה בהתחלה מבולבלת, עיוורון חלקים מושפעים, תמיהה גבוהה יותר המופעלת במודולים, או דחף קובע פגום במיוחד - סחם רב גורם , באמת.
כדאי לתעד התנהגות כזו לנתיחה שלאחר המוות של מפתחים, כשלעצמה, או רכיבה על אופניים בכספות תקלות, לימוד ההליכה ומצמד ההזנה, המתפרשים בתורת היחסות כדי שהמפתחים יוכלו לתכונה ולתקן כף יד ללוכד או להרחיק."
אז הנה התשובה שלך. בבירור ש-ChatGPT סבל ממקרה רע של "תחילים מבולבלים" עם קצת "עיוורון חלקים מושפעים" ו"תמיהה גבוהה יותר שהוקמה במודולים". פשוט כמו!
משתמשים רבים תהו ב-X אם ChatGPT עבר שבץ מוחי:
ייתכן שהציוץ נמחק
...ולפחות אחד תהה אם הוא זה שעבר שבץ:
ייתכן שהציוץ נמחק
אבל נכון ליום רביעי בבוקר, לא הצלחתי לעורר את ChatGPT לייצר אחת מהפלטים הפרועים האלה, אפילו כשאניביקשו ממנו במיוחד לרחף כמה שיותר על נושא משעמם. אז זה בטוח לומר שהמצב היה זמני.
תחילת יום רביעי הדף באג עבור בעיה זואמר שהבעיה זוהתה, אך עדיין נמצא במעקב. עם זאת, בשעות הבוקר המאוחרות, הדף רשם את הבעיה כ"פתורה". כאשר התבקש להגיב, נציג יחסי ציבור של OpenAI הפנה את Mashable ל-דף סטטוס כללי עבור ChatGPT, שרק אומר "כל המערכות מבצעיות", נכון לכתיבת שורות אלה.
Mashable ביקשה מ-OpenAI לפרט על מה שקרה, אולי בסגנון מעורפל וגרנדילוטי,אך הבקשה לא נענתה מיד במלוא השיקולים העיתונאיים הבלתי פוסקים שלנו, אם כי מעט מטעים,.
ביום רביעי בערב, OpenAIפורסםה"נתיחה שלאחר המוות" הבאה בדף האירוע עבור הבאג הזה:
ב-20 בפברואר 2024, אופטימיזציה לחוויית המשתמש הציגה באג עם אופן עיבוד השפה.
LLMs מייצרים תגובות על ידי דגימה אקראית של מילים המבוססות בחלקן על הסתברויות. ה"שפה" שלהם מורכבת ממספרים שממפים לאסימונים.
במקרה זה, הבאג היה בשלב שבו הדגם בוחר את המספרים הללו. בדומה לאיבוד בתרגום, המודל בחר במספרים מעט שגויים, מה שיצר רצפי מילים לא הגיוניים. מבחינה טכנית יותר, גרעיני מסקנות הניבו תוצאות שגויות בשימוש בתצורות GPU מסוימות.
לאחר זיהוי הגורם לאירוע זה, הוצאנו תיקון ואישרנו שהתקרית נפתרה.