קרדיט: Dilara Irem Sancar / Anadolu דרך Getty Images
OpenAIעשוי לסלול את הדרך לגלות את זהAIהפוטנציאל הצבאי של
דווח לראשונה על ידיאתלְעַכֵּבב-12 בינואר, שינוי מדיניות חדש של החברה הסיר לחלוטין את השפה הקודמת שאסרה על "פעילות שיש בה סיכון גבוה לנזק פיזי", כולל דוגמאות ספציפיות של "פיתוח נשק" ו"צבא ולוחמה".
החל מ-10 בינואר, OpenAI'sהנחיות שימושלא כלל עוד איסור על שימושים ב"צבא ולוחמה" בשפה הקיימת המחייבת את המשתמשים למנוע פגיעה. המדיניות מציינת כעת רק איסור על שימוש בטכנולוגיית OpenAI, כמו דגמי השפה הגדולים שלה (LLMs), כדי "לפתח או להשתמש בנשק".
הדיווחים הבאים על עריכת המדיניות הצביעו על המיידיאפשרות לשותפויות רווחיותבין OpenAI לבין מחלקות הגנה המבקשות להשתמש בבינה מלאכותית גנרית בפעולות אדמיניסטרטיביות או מודיעיניות.
בנובמבר 2023, משרד ההגנה האמריקאי הוציא אהַצהָרָהעל משימתה לקדם את "השימוש הצבאי האחראי בבינה מלאכותית ובמערכות אוטונומיות", תוך ציון אישור המדינה להצהרה הפוליטית הבינלאומית על שימוש צבאי אחראי בבינה מלאכותית ואוטונומיה - "שיטות עבודה מומלצות" בהובלה אמריקאית שהוכרזה בפברואר 2023 שפותח כדי לפקח ולהנחות את הפיתוח של יכולות צבאיות בינה מלאכותית.
מהירות אור ניתנת לריסוק
"יכולות בינה מלאכותית צבאיות כוללות לא רק כלי נשק אלא גם מערכות תומכות החלטות שעוזרות למנהיגי הגנה בכל הרמות לקבל החלטות טובות יותר ובזמן, משדה הקרב ועד לחדר הישיבות, ומערכות הקשורות לכל דבר, החל מפיננסים, שכר וחשבונאות ועד לגיוס עובדים. , שימור וקידום כוח אדם, לאיסוף ומיזוג של נתוני מודיעין, מעקב וסיור", מסבירים בהצהרה.
AI כבר נוצל על ידי הצבא האמריקאי ב-מלחמה רוסית-אוקראינית ובפיתוח כלי רכב צבאיים אוטונומיים מונעי בינה מלאכותית. במקומות אחרים, בינה מלאכותית שולבה במערכות מודיעין ומיקוד צבאיות, כולל מערכת בינה מלאכותית המכונה "הבשורה", המשמשת כוחות ישראליים לאיתור מטרות ולפי הדיווחים "צמצום נפגעים אנושיים" בהתקפותיה על עזה.
כלבי שמירה ופעילי בינה מלאכותית הביעו בעקביות דאגה מהשילוב הגובר של טכנולוגיות בינה מלאכותית בגם סכסוך סייבר וגם לחימה, מחשש להסלמה של סכסוך נשק בנוסף להטיות מערכת בינה מלאכותית ידועות זמן רב.
בהצהרה ל-לְעַכֵּב, דובר OpenAI, ניקו פליקס, הסביר שהשינוי נועד לייעל את הנחיות החברה: "שאפנו ליצור קבוצה של עקרונות אוניברסליים שקל לזכור וליישם, במיוחד מכיוון שהכלים שלנו נמצאים כעת בשימוש גלובלי על ידי משתמשים יומיומיים שיכולים כעת גם לבנות GPTs עיקרון כמו 'אל תפגע באחרים' הוא רחב אך קל לתפוס ורלוונטי בהקשרים רבים בנוסף, ציטטנו במיוחד כלי נשק ופציעה לאחרים כדוגמאות ברורות."
דובר OpenAI הבהיר עוד את השינוי באימייל ל-Mashable: "המדיניות שלנו לא מאפשרת להשתמש בכלים שלנו כדי לפגוע באנשים, לפתח נשק, למעקב אחר תקשורת, או לפצוע אחרים או להרוס רכוש. עם זאת, יש ביטחון לאומי. השתמש במקרים שמתואמים למשימה שלנו, למשל, אנחנו כבר עובדים איתםDARPAלדרבן יצירת כלי אבטחת סייבר חדשים לאבטחת תוכנות קוד פתוח שתשתיות קריטיות ותעשייה תלויות בהן. לא היה ברור אם מקרי השימוש המועילים הללו היו מותרים במסגרת "צבא" במדיניות הקודמת שלנו. אז המטרה עם עדכון המדיניות שלנו היא לספק בהירות ויכולת לקיים את הדיונים האלה".
OpenAI מציגה את מדיניות השימוש שלה בפזמון פשטני יותר: "אנו שואפים שהכלים שלנו ישמשו בבטחה ובאחריות, תוך מיקסום השליטה שלך על אופן השימוש בהם."
עדכון: ינואר 16, 2024, 12:28 בערבמאמר זה עודכן כך שיכלול הצהרה נוספת מ-OpenAI.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.