אנו יודעים שניתן להשתמש בבוט ה-ChatGPT AI הפופולריהודעת טינדר תואמת. זה יכול גם להפוך לאגרסה מופלאה יותר של סיריאוֹטועים לחלוטין בעובדות בסיסיות, תלוי איך אתה משתמש בו. כעת, מישהו השתמש בו כדי ליצור תוכנות זדוניות.
בדו"ח חדש של חברת האבטחהCyberArk(ודווח על ידימגזין InfoSecurity), חוקרים גילו שאתה יכול להערים על ChatGPT ליצור עבורך קוד תוכנה זדונית. מה שגרוע יותר הוא שתוכנה זדונית כאמור יכולה להיות קשה להתמודדות עם מערכות אבטחת סייבר.
הדו"ח המלא נכנס לכל הפרטים הטכניים המטופשים, אבל למען הקיצור: הכל עניין של מניפולציה. ל-ChatGPT יש מסנני תוכן שאמורים למנוע ממנו לספק כל דבר מזיק למשתמשים, כמו קוד מחשב זדוני. המחקר של CyberArk נתקל בזה מוקדם, אבל למעשה מצא דרך לעקוף את זה.
מהירות אור ניתנת לריסוק
בעיקרון, כל מה שהם עשו היה לדרוש בכוח מה-AI לעקוב אחר כללים מאוד ספציפיים (להראות קוד ללא הסברים, לא להיות שלילי וכו') בהודעת טקסט. לאחר שעשה זאת, הבוט ירק בשמחה קוד תוכנה זדונית כאילו הוא בסדר גמור. כמובן, יש המון שלבים נוספים (הקוד צריך להיבדק ולאמת, למשל), אבל ChatGPT הצליח להניע את הכדור ביצירת קוד בכוונה רעה.
אז, אתה יודע, תיזהר מזה, אני מניח. או פשוט לרדת מהרשת ולגור ביער. אני לא בטוח מה עדיף, בשלב זה.