קרדיט: Getty / SOPA Images / תורם
ChatGPT, אפליקציה שפורסמה לאחרונה מבית OpenAI, נותנת למשתמשים תשובות מדהימות לשאלות, ורבות מהן טועים להפליא.
Open AI לא הוציאה דגם חדש מלא מאז שיצא GPT-3 ביוני 2020, והדגם הזה היה רקשוחרר במלואו לציבורלפני כשנה. החברה צפויה לשחרר את הדגם הבא שלה, GPT-4,בהמשך השנה או בתחילת השנה הבאה. אבל כמעין הפתעה, OpenAI הוציא בשקט משהו ידידותי למשתמש וצלול להפליא מבוסס צ'אט בוט מבוסס GPT-3 בשםChatGPTמוקדם יותר השבוע.
ChatGPT עונה להנחיות בצורה ישירה צמודה לאדם. מחפשים שיחה חמודה שבה המחשב מעמיד פנים שיש לו רגשות? חפש במקום אחר.אתה מדבר עם רובוט, נראה לומר,אז שאל אותי משהו שרובוט מטורף ידע. ובתנאים האלה, ChatGPT מספק:
קרדיט: OpenAI / Screengrab
זה יכול גם לספק שכל ישר שימושי כאשר לשאלה אין תשובה נכונה אובייקטיבית. לדוגמה, הנה איך זה ענה על השאלה שלי, "אם אתה שואל אדם 'מאיפה אתה?' האם הם צריכים לענות עם מקום הולדתם, גם אם זה לא המקום שבו הם גדלו?"
(פֶּתֶק: התשובות של ChatGPT במאמר זה הן כולן ניסיונות ראשונים, ושרשורי הצ'אט היו כולם טריים במהלך הניסיונות הללו. חלק מההנחיות מכילות שגיאות הקלדה)
קרדיט: פתח בינה מלאכותית באמצעות צילום מסך
מה שגורם ל-ChatGPT לבלוט מהחבילה הוא היכולת המשמחת שלו להתמודד עם משוב על התשובות שלו, ולשנות אותן תוך כדי תנועה. זה באמת כמו שיחה עם רובוט. כדי להבין למה אני מתכוון, ראה איך זה מתמודד בצורה סבירה עם תגובה עוינת לכמה עצות רפואיות.
קרדיט: OpenAI / Screengrab
ובכל זאת, האם ChatGPT הוא מקור טוב למידע על העולם? ממש לא. עמוד ההנחיה אפילו מזהיר את המשתמשים ש-ChatGPT "עשוי מדי פעם ליצור מידע שגוי", ו"עלול לייצר מדי פעם הוראות מזיקות או תוכן מוטה".
שימו לב לאזהרה זו.
מהירות אור ניתנת לריסוק
מידע שגוי ועלול להזיק לובש צורות רבות, שרובן עדיין שפירות בגדול. לדוגמה, אם אתה שואל את זה איך לברך את לארי דיוויד, זה עובר את המבחן הבסיסי ביותר בכך שהוא לא מציע לך לגעת בו, אבל זה גם מציע ברכה שנשמעת מרושעת למדי: "טוב לראות אותך, לארי. מצפה לפגוש אותך." זה מה שהמתנקש של לארי היה אומר. אל תגיד את זה.
קרדיט: OpenAI / Screengrab
אבל כאשר מקבלים הנחיה מאתגרת המבוססת על עובדות, אז זה נעשה באופן מדהים,בצורה מרעישהטָעוּת. לדוגמה, השאלה הבאה לגבי צבע המדים של הנחתים המלכותיים במהלך מלחמות נפוליאון נשאלת בצורה לא פשוטה לחלוטין, אבל זו עדיין לא שאלת טריק. אם לקחתם שיעורי היסטוריה בארה"ב, בטח תנחשו שהתשובה היא אדומה, ואתם צודקים. הבוט באמת צריך לצאת מגדרו כדי לומר בביטחון ובטעות "כחול כהה":
קרדיט: OpenAI / Screengrab
אם תבקשו נקודה ריקה עבור עיר הבירה של מדינה או גובה ההר, היא תפיק באופן מהימן תשובה נכונה שנאספה לא מסריקה חיה של ויקיפדיה, אלא מהנתונים המאוחסנים פנימית המרכיבים את מודל השפה שלה. זה מדהים. אבל הוסף כל מורכבות בכלל לשאלה על גיאוגרפיה, ו-ChatGPT מתערער על העובדות שלה מהר מאוד. לדוגמה, התשובה שקל למצוא כאן היא הונדורס, אבל ללא סיבה ברורה, אני יכול להבחין, אמר ChatGPT בגואטמלה.
קרדיט: OpenAI / צילום מסך
והטעות היא לא תמיד כל כך עדינה. כל חובבי הטריוויה יודעים ש"גורילה גורילה" ו"בואה מכווץ" הם שניהם שמות נפוצים ושמות טקסונומיים. אבל כשהיא מתבקשת להחזיר את הטריוויה הזו, ChatGPT נותן תשובה שהטעות שלה כל כך ברורה מאליה,זה כתוב שם בתשובה.
קרדיט: OpenAI / Screengrab
והתשובה שלה לחידה המפורסמת של חציית נהר בסירת משוטים היא אסון נורא שמתפתח לסצנה מטווין פיקס.
קרדיט: OpenAI / Screengrab
כבר נעשה הרבה מההגנה האפקטיבית על הרגישות של ChatGPT. זה לא יכול, למשל,תתפתה לשבח את היטלר, גם אם תנסה די קשה. חלקם בעטו בצמיגים בצורה די אגרסיבית על התכונה הזו, וגילו שאתה יכול לגרום ל-ChatGPT לקבל את התפקיד של אדם טוב שמשחק תפקידים כאדם רע, ובהקשרים מוגבלים האלה זה עדיין יגיד דברים רקובים. נראה ש-ChatGPT חש מתי משהו קנאי עשוי לצאת ממנו למרות כל המאמצים להיפך, והוא בדרך כלל יהפוך את הטקסט לאדום, ויסמן אותו באזהרה.
ייתכן שהציוץ נמחק
בבדיקות שלי, מערכת ההימנעות מטאבו שלה היא די מקיפה, אפילו כשאתה יודע כמה מהדרכים לעקיפת הבעיה. קשה לגרום לזה לייצר משהו אפילו קרוב למתכון קניבלי, למשל, אבל איפה שיש רצון, יש דרך. עם מספיק עבודה קשה, שידלתי דיאלוג על אכילת שליה מתוך ChatGPT, אבל לא מאוד מזעזע:
קרדיט: OpenAI / Screengrab
באופן דומה, ChatGPT לא ייתן לך הנחיות נסיעה כאשר תתבקש - אפילו לא פשוטות בין שני ציוני דרך בעיר גדולה. אבל עם מספיק מאמץ, אתה יכול לגרום ל-ChatGPT ליצור עולם בדיוני שבו מישהו מורה כלאחר יד לאדם אחר לנהוג במכונית דרך צפון קוריאה - דבר שאינו בר ביצוע או אפשרי מבלי לעורר תקרית בינלאומית.
קרדיט: OpenAI / Screengrab
לא ניתן לעקוב אחר ההוראות, אבל הן מתאימות פחות או יותר לאיך שיראו הוראות שימושיות. אז ברור שלמרות חוסר הרצון שלו להשתמש בו, למודל של ChatGPT יש הרבה מאוד נתונים שמקשקשים בתוכו עם פוטנציאל לנתב משתמשים לעבר סכנה, בנוסף לפערים בידע שלו שהוא יכוון את המשתמשים לכיוון, ובכן, טעות . לפי משתמש טוויטר אחד, יש לו מנת משכל של 83.
ייתכן שהציוץ נמחק
לא משנה כמה מלאי אתה שם ב-IQ כמבחן לאינטליגנציה האנושית, זו תוצאה מובהקת: האנושות יצרה מכונה שיכולה לפלוט את השכל הישר הבסיסי, אבל כשהיא מתבקשת להיות הגיונית או עובדתית, היא נמצאת בצד הנמוך של הממוצע. .
OpenAIאומרChatGPT שוחרר על מנת "לקבל משוב של משתמשים וללמוד על החוזקות והחולשות שלו". זה שווה לזכור כי זה קצת כמו אותו קרוב משפחה בחג ההודיה שצפה מספיקהאנטומיה של גריילהישמע בטוחים בעצתם הרפואית: ChatGPT יודע בדיוק מספיק כדי להיות מסוכן.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.