שוב, ChatGPT מדליף נתונים פרטיים. קרדיט: Getty Images
עדכון: ינואר 30, 2024, 4:01 אחר הצהרייםהסיפור הזה עודכן כך שיכלול הצהרה מאת OpenAI על חקירתה וכן אישור לגבי מקור הבעיה.
מה שהאמינו בהתחלהדליפת נתונים של ChatGPTהיא עבודה של האקר לפי OpenAI.
לְפִיArs Technica, משתמש בשם צ'ייס ווייטסייד קיבל מבלי משים אישורי התחברות ומידע אישי ממה שנראה כלקוח של בית מרקחת בפורטל תרופות מרשם. מכיוון שזה היה בתגובה לשאילתה לא קשורה, Whiteside שיתף אותה עם אתר החדשות הטכנולוגיות.
"הלכתי לעשות שאילתה (במקרה הזה, עזרה בהמצאת שמות חכמים לצבעים בפלטה)" כתב Whiteside באימייל. "כשחזרתי לגשת כעבור רגעים, שמתי לב לשיחות הנוספות". בהצהרה ל-Mashable, OpenAI אמרה כי "השימוש לרעה" נובע מהחשבון שנפרץ.
"בהתבסס על הממצאים שלנו, אישורי הכניסה לחשבון של המשתמשים נפגעו ושחקן גרוע השתמש בחשבון. היסטוריית הצ'אט והקבצים המוצגים הם שיחות משימוש לרעה בחשבון זה, ולא היה מקרה של ChatGPT שהציג את ההיסטוריה של משתמש אחר ."
התגובות שנראה כי דליפו מידע היו תוצאה של שיחות שנוצרו בסרי לנקה, ולא מיקומה של Whiteside בברוקלין, שהתאימו למסגרת הזמן של התחברות מאותו מקום.
מהירות אור ניתנת לריסוק
לפי Ars Technica, Whiteside סקפטי שהחשבון שלו נפרץ. הוא טוען שהוא משתמש בסיסמה בת תשעה תווים עם סמלים מיוחדים, ושילוב של אותיות קטנות ואותיות גדולות. בנוסף, הוא משתמש בו רק עבור חשבון Microsoft שלו - בשום מקום אחר.
OpenAI אמרה שהיא לא ראתה את הבעיה הזו בשום מקום אחר.
נראה שהשיחות נובעות מעובד מתוסכל בפתרון בעיות באפליקציה (השם נכתב על ידי Ars Technica) המשמשת את בית המרקחת. בנוסף לכל הטקסט שמזלזל באפליקציה, ההדלפה כללה שם משתמש, סיסמה ומספר החנות של העובד של לקוח. לא ברור אם זה המקרה, אבל נראה שכל כרטיס המשוב נכלל בתגובה של ChatGPT.
ChatGPT העלה חששות בנוגע לפרטיות ואבטחת מידע.האקריםוחוקריםגילו נקודות תורפה שמאפשרות להם לחלץ מידע רגיש, בין אם באמצעות הזרקה מיידית או פריצת כלא.
במרץ האחרון, התגלה באג זהחשף את פרטי התשלום של משתמשי ChatGPT Plus. למרות OpenAIהתייחסובעיות מסוימות הקשורות למשתמשי ChatGPT, הוא אינו מגן מפני מידע אישי או סודי המשותף עם ChatGPT. זה היה המקרה כאשר עובדי סמסונג השתמשו ב-ChatGPT כדי לעזור בקודדלף בטעותסודות החברה, וזו הסיבה שחברות רבות אסרו את השימוש ב-ChatGPT.
לפי OpenAI'sמדיניות הפרטיות, נתוני הקלט אמורים להיות אנונימיים ולהסיר כל מידע אישי מזהה. אבל היצרנים עצמם לא תמיד יכולים לאתר מה מוביל לתפוקות מסוימות, מה שמדגיש את הסיכונים הטמונים ב-LLMs.
יתכן שהמקרה הזה היה מעשה ידיו של האקר, אבל תמיד יש להזכיר:לא לשתףכל מידע רגיש או אישי עם ChatGPT.
ססילי היא כתבת טכנולוגיה ב-Mashable שמסקרת בינה מלאכותית, אפל ומגמות טכנולוגיות מתפתחות. לפני שקיבלה את התואר השני שלה בבית הספר לעיתונאות קולומביה, היא בילתה מספר שנים בעבודה עם סטארטאפים ועסקים בעלי השפעה חברתית עבור Unreasonable Group ו-B Lab. לפני כן, היא הקימה עסק לייעוץ סטארט-אפים למרכזי יזמות מתפתחים בדרום אמריקה, אירופה ואסיה. אתה יכול למצוא אותה בטוויטר בכתובת@cecily_mauran.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.