ככל שיותר ארגונים מתקדמים לקראת אימוץ הגנרטיבAI, גוגל רוצה שכולנו נהיה מודאגים יותר לגבי אבטחה. לשם כך, ביום חמישי פרסמה ענקית הטכנולוגיה את מסגרת הבינה המלאכותית המאובטחת שלה (SAIF), שנועדה להיות מעין מפת דרכים אבטחה, אם היא משורטטת מעט דק לעת עתה.
אבל אם אתה מדמיין שזו תוכנית למניעתסוג של סכנת AI קיומית שאלון מאסק תמיד מדבר עליה, תחשוב קטן יותר ומיידי יותר.
להלן סיכום של ששת "מרכיבי הליבה" של המסגרת:
אלמנטים 1 ו-2 עוסקים בהרחבת מסגרת האבטחה הקיימת של ארגון כך שתכלול מלכתחילה איומי AI.
אלמנט 3 עוסק בשילוב בינה מלאכותית בהגנה שלכם מפני איומי בינה מלאכותית, מה שמזכיר באופן מטריד מרוץ חימוש גרעיני, בין אם זה היה מכוון או לא.
אלמנט 4 עוסק ביתרונות האבטחה של אחידות ב"מסגרות הבקרה" הקשורות ל-AI שלך.
אלמנטים 5 ו-6 עוסקים בבדיקה, הערכה ובדיקת קרב מתמדת של יישומי הבינה המלאכותית שלך כדי לוודא שהם יכולים לעמוד בהתקפות, ואינם חושפים אותך לסיכון מיותר.
נראה שלעת עתה, גוגל בעיקר רוצה שארגונים יביאו רעיונות אבטחת סייבר בסיסיים לביטוי בינה מלאכותית. בתור ראש אבטחת המידע של Google Cloud, Phil Venablesאמר לאקסיוס, "אפילו בזמן שאנשים מחפשים את הגישות המתקדמות יותר, אנשים צריכים לזכור שאתה צריך גם את היסודות הנכונים."
מהירות אור ניתנת לריסוק
אבל יש כבר כמה דאגות אבטחה חדשות וייחודיות שצצות כאן ועכשיו עם יישומי בינה מלאכותית כמוChatGPT.
לדוגמה, חוקרי אבטחה זיהו סיכון פוטנציאלי אחד: "זריקות מיידיות," צורה מוזרה של ניצול בינה מלאכותית שבה פקודה זדונית המכוונת לפלאגין צ'אטבוט של AI חסר חשד מחכה בגוש טקסט כלשהו. כאשר ה-AI סורק את ההזרקה המהירה, הוא משנה את אופי הפקודה שניתנה ל-AI. זה בערך כמו להסתיר כישוף מרושע של שליטה בנפש בטקסט עלהטלפרומפטר של רון בורגונדי. מוזר, נכון?
והזרקות מיידיות הן רק אחד מסוגי האיומים החדשים שגוגל אומרת במפורש שהיא מקווה לעזור לרסן. אחרים כוללים:
"גניבת המודל", דרך אפשרית להערים על מודל תרגום לוותר על סודותיו.
"הרעלת נתונים", שבה שחקן גרוע מחבל בתהליך האימון עם נתונים שגויים בכוונה.
בניית הנחיות שיכולות לחלץ את הטקסט שעלול להיות סודי או רגיש ששימש במקור להכשרת מודל.
של גוגלפוסט בבלוגלגבי SAIF אומר שהמסגרת מאומצת על ידי, ובכן, גוגל. באשר למשמעות של שחרור "מסגרת" עבור העולם הרחב, זה יכול להיות בעצם כלום, אבל זה גם יכול להיות מאומץ כסטנדרט. לדוגמה, המכון הלאומי לתקנים וטכנולוגיה של ממשלת ארה"ב (NIST) פרסם מסגרת כללית יותר לאבטחת סייבר ב-2014. שמטרתה הייתה להגן על תשתית קריטית מפני התקפות סייבר, אבל היא גם משפיעה מאוד, ומוכר כתקן הזהבבתחום אבטחת הסייבר על ידי רוב מומחי ה-IT שנסקרו על כך.
גוגל, לעומת זאת, אינה ממשלת ארה"ב, שמטילה ספק עד כמה המסגרת שלה תהיה סמכותית בעיני יריביו של גוגל בבינה מלאכותית, כמו OpenAI. אבל בתחום האבטחה, נראה שגוגל מנסה להוביל מהחזית בחלל הבינה המלאכותית,במקום למרוץ לשחק תופסת. אולי להחזיר חלק מהכוח שהוא איבד בשלבים המוקדמים יותר של מרוץ הבינה המלאכותית הוא מה שבאמת עוסק בשחרור SAIF.