קרדיט: Jonathan Raa/NurPhoto דרך Getty Images
OpenAIאישר זאתשחקנים רעים המזוהים עם המדינה משתמשים בטכנולוגיה של החברהלמטרות זדוניות, אישור למה שרבים חששו מאז עלייתה של החברה לגדולה בדורAIגֶזַע.
הגילוי מגיע כחלק משיתוף פעולה עםMicrosoft Threat Intelligence, קהילה של אלפי מומחי אבטחה, חוקרים וציידי איומים שמנתחים ומזהים איומי סייבר.
באמצעות איסוף המודיעין של הרשת, OpenAI גילתה לפחות חמישה שחקנים מאושרים המזוהים עם המדינה, שמשתמשים בשירותי OpenAI לצורך שאילתות מידע בקוד פתוח, תרגום, מציאת שגיאות קידוד והרצת משימות קידוד בסיסיות, הסבירה החברה. השחקנים כללו שני שחקנים המזוהים עם סין הידועים כ-Charcoal Typhoon ו-Salmon Typhoon; שחקן המזוהה עם איראן המכונה סופת חול ארגמן; שחקן המזוהה עם צפון קוריאה המכונה ברקת סליט; ושחקן המזוהה עם רוסיה המכונה סופת שלגים יער.
נאמר כי החשבונות מסתמכים על שירותי OpenAI כדי לחזק מתקפות סייבר פוטנציאליות, אךמיקרוסופטלא זיהה שימוש משמעותי במכשירים המנוטרים ביותרלימודי תואר שני.
מהירות אור ניתנת לריסוק
"אלה כוללים סיור, כגון למידה על תעשיות, מיקומים ויחסים של קורבנות פוטנציאליים; עזרה בקידוד, כולל שיפור דברים כמו סקריפטים של תוכנה ופיתוח תוכנות זדוניות; וסיוע בלימוד ושימוש בשפות מקומיות", הסבירה מיקרוסופט. "תמיכה בשפה היא תכונה טבעית של LLMs והיא אטרקטיבית עבור גורמי איומים עם התמקדות מתמשכת בהנדסה חברתית וטכניקות אחרות הנשענות על תקשורת כוזבת ומטעה המותאמות לעבודות היעד, לרשתות המקצועיות ולמערכות יחסים אחרות".
מיקרוסופט הבחינה בהכרזה זו כמאמץ גילוי מוקדם, שנועד לחשוף "מהלכים מצטברים בשלבים מוקדמים שאנו צופים בשחקני איומים ידועים מנסים".
שיתוף הפעולה מתיישב עם המהלכים האחרונים מהבית הלבן אלדורשים בדיקות בטיחות ופיקוח ממשלתיעבור מערכות בינה מלאכותית שעלולות להשפיע על הביטחון הלאומי והכלכלי, בריאות הציבור והבטיחות הכללית. "בעוד שתוקפים יישארו מעוניינים ביכולות הנוכחיות של טכנולוגיות הבינה המלאכותית והבדיקה ובבקרות האבטחה, חשוב לשמור את הסיכונים הללו בהקשר. כמו תמיד, שיטות היגיינה כגוןאימות רב-גורמי (MFA) ואפס אמוןהגנות חיוניות מכיוון שתוקפים עשויים להשתמש בכלים מבוססי בינה מלאכותית כדי לשפר את התקפות הסייבר הקיימות שלהם, המסתמכות על הנדסה חברתית ומציאת מכשירים וחשבונות לא מאובטחים".
בעוד ש-OpenAI מודה שהמודלים הנוכחיים שלה מוגבלים ביכולתם לזהות התקפות סייבר, החברה התחייבה להשקעות עתידיות באבטחה, כולל:
השקעות בטכנולוגיה ובצוותים, לרבות צוותי המודיעין והחקירות ובטיחות, אבטחה ויושרה, לאיתור איומים.
שיתופי פעולה עם שותפים בתעשייה ובעלי עניין אחרים כדי להחליף מידע על שימושים זדוניים.
המשך דיווח פומבי על איומי אבטחה ופתרונות.
"למרות שאנו פועלים כדי למזער שימוש לרעה פוטנציאלי על ידי שחקנים כאלה, לא נוכל לעצור כל מקרה", כתב OpenAI. "אבל על ידי המשך חידוש, חקירה, שיתוף פעולה ושיתוף, אנו מקשים על שחקנים זדוניים להישאר בלתי מזוהים ברחבי האקולוגית הדיגיטלית ולשפר את החוויה עבור כל השאר."
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.