קרדיט: Jakub Porzycki / Nurphoto דרך Getty Images
גוגלמחקה בשקט את המשכון שלה שלא להשתמש ב- AI לכלי נשק או מעקב,הבטחה שהייתה קיימת מאז 2018ו
הבחין לראשונה על ידיבלומברג, גוגל עדכנה את זהעקרונות AIכדי להסיר קטע שלם על יישומי בינה מלאכותית הוא התחייב שלא להמשיך. באופן משמעותי,המדיניות של גוגל הצהירה בעברשהיא לא תעצב ולא לפרוס טכנולוגיית AI לשימוש בכלי נשק, או בטכנולוגיית מעקב המפרת "נורמות מקובלות בינלאומית".
כעת נראה שמקרי שימוש כזה עשויים לא להיות לגמרי מהשולחן.
ראה גם:
"יש תחרות עולמית שמתרחשת למנהיגות AI בתוך נוף גיאו -פוליטי מורכב יותר ויותר,"קרא את פוסט הבלוג של גוגל ביום שלישי."אנו מאמינים כי דמוקרטיות צריכות להוביל בפיתוח AI, מונחה על ידי ערכי ליבה כמו חופש, שוויון וכבוד לזכויות אדם. ואנחנו מאמינים כי חברות, ממשלות וארגונים שחולקו ערכים אלה צריכים לעבוד יחד כדי ליצור AI המגנה על אנשים, מקדמת גלובלית צמיחה ותומכת בביטחון לאומי. "
בעוד שהפוסט של גוגל אכן נוגע לעדכון עקרונות ה- AI שלה, הוא לא ציין במפורש את מחיקת האיסור שלה על נשק AI או מעקב.
כאשר הושגה לתגובה, דובר גוגל כיוון את Mashable בחזרה לפוסט בבלוג.
מהירות אור מחית
"[W] מעדכנים את העקרונות מכמה סיבות, כולל השינויים העצומים בטכנולוגיית AI לאורך השנים ובשכיחות הטכנולוגיה, פיתוח עקרונות AI ומסגרות על ידי גופים שלטון גלובלי, והנוף הגיאופוליטי המתפתח "אמר הדובר.
עקרונות ה- AI של גוגל המפרטים את "הבקשות שלא נמשיך" החל מה -30 בינואר. קרדיט: צילום מסך: Mashable / Google
גוגל פרסמה לראשונה את עקרונות ה- AI שלהבשנת 2018, בעקבות הפגנות עובדים משמעותיות נגד שלהלעבוד עם משרד ההגנה האמריקניו (החברה כבר הייתה לשמצההוסר "אל תהיה רע" מקוד ההתנהגות שלובאותה שנה.) פרויקט Maven נועד להשתמש ב- AI כדי לשפר את מערכות מיקוד הנשק, לפרש מידע וידאו כדי להגביר את דיוק המזל"טים הצבאיים.
במכתב פתוח באפריל, אלפי עובדים הביעו אמונה כי "גוגל לא צריכה להיות בעסקי מלחמה", וביקשו שהחברה "טיוטת, לפרסם ולאכוף מדיניות ברורה המצהירה כי לא גוגל ולא הקבלנים שלה יבנו לעולם טכנולוגיית לוחמה. "
עקרונות ה- AI של החברה היו התוצאה, כאשר גוגל בסופו של דבר לא חידשה את חוזהה עם הפנטגון בשנת 2019. עם זאת, נראה כי היחס של ענקית הטכנולוגיה לטכנולוגיית נשק AI עשוי כעת להשתנות.
היחס החדש של גוגל לכלי נשק AI יכול להיות מאמץ לעמוד בקצב המתחרים. בינואר האחרון,Openai תיקן את המדיניות שלהכדי להסיר איסור על "פעילות שיש בה סיכון גבוה לפגיעה פיזית", כולל "פיתוח נשק" ו"צבא ולוחמה ". בהצהרה ל- Mashable באותה תקופה, דובר Openai הבהיר כי שינוי זה אמור לספק בהירות הנוגעת ל"מקרי שימוש בביטחון לאומי ".
"לא היה ברור אם מקרי השימוש המועילים הללו היו מורשים תחת 'צבא' במדיניות הקודמת שלנו", אמר דובר.
פתיחת האפשרות של AI נשק אינו השינוי היחיד שגוגל עשתה בעקרונות ה- AI שלה.נכון ל -30 בינואר, מדיניותה של גוגל רשמה שבע יעדי ליבה ליישומי AI: "היו מועילים חברתית", "הימנעווווווווצי או חיזוקו של הטיה בלתי הוגנת שלכםם שלכם, שלכםם, שלכםם לבחון לבטיחות שלכם", "היו אחראים לאנשים", "שילבו עקרונות עיצוב פרטיות", " לקיים סטנדרטים גבוהים של מצוינות מדעית ", ו"התמלאים לשימושים העוסקים בעקרונות אלה."
עַכשָׁיוהמדיניות המתוקנת של גוגלאיחדה רשימה זו לשלושה עקרונות בלבד, אך ורק קבע כי גישתו ל- AI מבוססת ב"חדשנות נועזת "," פיתוח ופריסה אחראית "ו"תהליך שיתופי, יחד." החברה אכן מציינת כי הדבר כולל דבקות ב"עקרונות מקובלים על המשפט הבינלאומי וזכויות האדם ". ובכל זאת, כל אזכור של כלי נשק או מעקב נעדר כעת באופן בולט.
אמנדה יאו היא עוזרת עורך ב- Mashable, המכסה בידור, תרבות, טק, מדע וטובת חברתית. ממוקמת באוסטרליה, היא כותבת על כל דבר, ממשחקי וידאו ו- K-pop לסרטים וגאדג'טים.
עלוני מידע אלה עשויים להכיל קישורי פרסום, עסקאות או סניפים. על ידי לחיצה על מנוי, אתה מאשר שאתה בן 16 ומעלה ומסכים לשלנותנאי שימושוכןמדיניות פרטיותו