קרדיט: קרדיט: תמונה: Mashable composite; שוטרסטוק, ג'ק צ'דוויק
אמנם עידן העוזרים הרובוטים הרגישים עדיין לא ממש כאן,AIהוא מציע במהירות הצעה להיות השותף הבא שלך לעבודה.
יותר ממחצית מהעובדים בארה"במשתמשים כעת בצורה כלשהי של AI בעבודתם. לפי אסקר בינלאומימתוך 5,000 עובדים על ידי הארגון לשיתוף פעולה ופיתוח כלכלי (OECD), כ-80% ממשתמשי הבינה המלאכותית דיווחו שבינה מלאכותית שיפרה את הביצועים שלהם בעבודה, מה שהצביע במידה רבה על אוטומציה מוגברת. עבור חלקם, האינטגרציה האתית של AI היאהדאגה המובילה במקום העבודהשל 2024.
אבל בעוד התומכים מציינים כמה פוטנציאל יש לטכנולוגיות בינה מלאכותית לשפר ולייעל מקומות עבודה שוויוניים יותר - וכנראה יש דוגמאות של בינה מלאכותית שכבר פועלת בעבודה שלך - זה לא אומר שכולנו צריכים למהר להכניס את הבינה המלאכותית שלנו. עֲבוֹדָה.
אותו סקר OECD גם תיעד חשש מתמשך מפניאובדן עבודה וירידה בשכרכשבינה מלאכותית חופרת עמוק יותר לתוך נוף התעסוקה. אסקר שונהמהעובדים בארה"ב על ידי CNBC ו-SurveyMonkey דיווחו כי 42 אחוז מהעובדים היו מודאגים מההשפעה של בינה מלאכותית על עבודתם, והטיו גבוה יותר עבור אלה עם הכנסה נמוכה יותר ועבור עובדים צבעוניים.
ועם עלייתו שלהונאות מבוססות בינה מלאכותית, דיון מתמשך עלרגולציה ממשלתית, ודאגות לגביפרטיות מקוונת(שלא לדבר על ריוויון היתר של מהדורות בינה מלאכותית "חדשות"), יש עדיין הרבה עלומים בכל הנוגע לעתיד של AI.
הכי טוב לצעוד לתוך העולם שלAI בעבודהעם קצת חשש - או לפחות עם כמה שאלות בכיס האחורי.
על איזה סוג של AI אנחנו מדברים, בדיוק?
שלב ראשון: הכירו את הבינה המלאכותית בכלל. ככל שהמונח גדל בשימוש פופולרי, "אינטליגנציה מלאכותית" התפתחה לביטוי מושך המתייחס יותר למגוון טכנולוגיות ושירותים מאשר לשם עצם ספציפי.
סילי מורן של Mashableמגדיר בינה מלאכותיתכ"מונח כללי לטכנולוגיה שיכולה להפוך או לבצע משימות מסוימות שתוכננו על ידי אדם". היא מציינת שמה שרבים מתייחסים אליו כעת כ-AI הוא למעשה משהו ספציפי יותר, המכונה AI גנראטיבי או בינה כללית מלאכותית. AI גנרטיבי, מסביר מורן, מסוגל "ליצור טקסט, תמונות, וידאו, אודיו וקוד על סמך הנחיות ממשתמש". השימוש הזה ספג לאחרונה אש בגלל הפקת הזיות (או המצאות עובדות), הפצת מידע מוטעה והקלה על הונאות וזיופים עמוקים.
צורות אחרות של AI כוללות אלגוריתמי המלצות פשוטים, אלגוריתמים מורכבים יותר הידועים כרשתות עצביות ולמידת מכונה רחבה יותר.
כפי שסאירה מילר מדווחת עבור Mashable,AI כבר שילבה את עצמה במקום העבודה(והחיים שלך) במגוון דרכים, כולל תכונות הניבוי של Gmail, מערכת ההמלצות של LinkedIn ומגוון כלי Office של מיקרוסופט.
דברים פשוטים כמו תמלילים או כתוביות שפועלים במהלך פגישות וידאו מסתמכים על AI. אתה יכול גם להיתקל בזה בצורה של אלגוריתמים שמקלים על איסוף נתונים, בתוך עוזרי קול במכשירים האישיים שלך או בתוכנה המשרדית, או אפילו כלימוד מכונה שמציע הצעות איות או תרגומי שפות.
האם לחברה שלך יש מדיניות בינה מלאכותית?
לאחר שקבעת שכלי הבינה המלאכותית נופל מחוץ למקרה שימוש שכבר הופעל בעבודה היומיומית שלך, ולכן עשוי להזדקק לפיקוח נוסף, הגיע הזמן לפנות להנהלה. עדיף בטוח מאשר מצטער!
יש לקוות כי לחברה שלך יהיו קווים מנחים בדיוק איזה סוג של שירותי בינה מלאכותית ניתן למשוך לעבודה שלך וכיצד יש להשתמש בהם, אבל יש סיכוי גבוה שלא - סקר משנת 2023 מ-The Conference Board מצא כישלושה רבעים מהחברות עדיין חסרו מדיניות AI ארגונית. אם אין כללים, קבל הבהרות מהמנהל שלך, ואולי אפילו צוותים משפטיים או משאבי אנוש, תלוי באיזה טכנולוגיה אתה משתמש.
השתמש רק בכלי AI גנרטיביים שאושרו מראש על ידי מקום העבודה שלך.
ב אסקר עולמימהעובדים לפי פלטפורמת הניהול העסקי Salesforce, 28 אחוז מהעובדים אמרו שהם משלבים כלי בינה מלאכותית בעבודתם, אבל רק 30 אחוז קיבלו הדרכה כלשהי על השימוש בכלי בצורה הולמת ואתית. 64 אחוזים מדהימים מ-7,000 העובדים דיווחו שהעבירו את עבודת הבינה המלאכותית הגנרטיבית כשלהם.
מהירות אור ניתנת לריסוק
בהתבסס על שיעור התגובה של שימוש ללא פיקוח, צוות הסקר המליץ לעובדים להשתמש רק בכלים ובתוכניות בינה מלאכותית שאושרו על ידי החברה, ולעולם לא ישתמשו בנתוני חברה סודיים או בנתוני לקוחות המאפשרים זיהוי אישי בהנחות לבינה מלאכותית.
אפילו חברות גדולות אוהבותתַפּוּחַוגוגלאסרו בעבר שימוש בבינה מלאכותית גנרטיבית.
דברים שיש לקחת בחשבון לפני השימוש בכלי AI גנרטיבי:
פרטיות נתונים. אם אתה משתמש בבינה מלאכותית גנרטיבית, איזה סוג מידע אתה מחבר לכלי, כגון צ'אט בוט או LLM אחר? האם מידע זה רגיש לאנשים שאתה עובד איתם או קנייני לעבודתך? האם הנתונים מוצפנים או מוגנים בדרך כלשהי כאשר הם נמצאים בשימוש ב-AI?
בעיות זכויות יוצרים.אם אתה משתמש במערכת AI גנרטיבית כדי לעצב קונספטים יצירתיים, היכן הטכנולוגיה שואבת את הנתונים האמנותיים הדרושים כדי להכשיר את המודל שלו? האם יש לך זכות חוקית להשתמש בתמונות, בווידאו או באודיו שה-AI מייצר?
דִיוּק. האם בדקת עובדות את המידע שסופק על ידי כלי הבינה המלאכותית או זיהית הזיות כלשהן? האם לטכנולוגיה יש מוניטין של אי דיוק?
את מי ה-AI ישרת?
חשוב גם להבחין היכן בינה מלאכותית משתלבת בזרימת העבודה היומיומית שלך, ומי יקיים אינטראקציה עם תפוקות בינה מלאכותיות כלשהן. יש הבדל בין שילוב כלי בינה מלאכותית כמו צ'טבוטים או עוזרים בתוך המשימות היומיומיות שלך, לבין החלפת משימת עבודה שלמה בה. מי יושפע מהשימוש שלך ב-AI, והאם זה יכול להיות אסיכון לך או ללקוחות שלך? החשיפה של שימוש בבינה מלאכותית היא אפילו שאלהלמשרדי עורכי דין אין תשובות ברורות, אבל ארוב האמריקאיםמאמינים שיש לחייב חברות לעשות זאת.
דבר שיש לקחת בחשבון:
האם אתה משתמש בכלי AI כדי ליצור רעיונות אך ורק לתהליך סיעור המוחות שלך?
האם השימוש שלך ב-AI מביא לקבלת החלטות כלשהי עבורך, עבור עמיתיך לעבודה או עבור הלקוחות שלך? האם זה רגיללעקוב, לפקח או להעריך עובדים?
האם התוכן שנוצר בינה מלאכותית ייראה על ידי לקוחות או כל אדם מחוץ לחברה? האם זה ייחשף להם, ואֵיך?
מי אחראי על ה-AI?
קיבלת את האישור מהחברה שלך ואתה מבין באיזה סוג של AI אתה משתמש, אבל עכשיו יש לך כמה עניינים אתיים גדולים יותר לשקול.
כלבי שמירה רבים של בינה מלאכותית מציינים שהמהירה המהירה לחדש בתחום הובילה להתקבצות של כמה שחקני ביג טק המממנים ושולטים ברוב פיתוח הבינה המלאכותית.
מכון מחקר ומדיניות בינה מלאכותיתAI עכשיומציין כי זו עלולה להיות בעיה כאשר לחברות הללו יש עימותים ומחלוקות משלהן. "מודלים של בינה מלאכותית בקנה מידה גדול עדיין נשלטים במידה רבה על ידי חברות ביג טק בגלל משאבי המחשוב והנתונים העצומים שהם דורשים, וגם מציגים חששות מתועדים היטב סביב אפליה, פרצות פרטיות ואבטחה והשפעות סביבתיות שליליות", כתב המכון ב- דו"ח אפריל 2023.
AI Now גם מציינת שהרבה מוצרי בינה מלאכותית כביכול קוד פתוח - ייעוד שפירושו שקוד המקור של תוכנה זמין וחינמי לשימוש או לשינוי על ידי הציבור - למעשה פועלים יותר כמו קופסאות שחורות, כלומר שמשתמשים ומפתחי צד שלישי חסומים מלראות את פעולתו הפנימית בפועל של ה-AI והאלגוריתמים שלו. AI Now קורא לזה שילוב של תוכניות קוד פתוח עם מדיניות גישה פתוחה.
במקביל, היעדר רגולציה פדרלית ומדיניות פרטיות נתונים לא ברורה עוררו דאגות לגבי פיתוח AI לא מפוקח. בעקבות אצו ביצוע על AIמהנשיא ג'ו ביידן, יש כמה חברות תוכנההסכים להגיש מבחני בטיחות לפיקוח פדרלילפני השחרור, חלק מדחיפה למעקב אחר השפעה זרה. אבל הנחיות רגולטוריות סטנדרטיות עדיין בפיתוח.
אז אולי תרצה לקחת בחשבון באיזה תחום של העבודה שלך אתה עוסק, השותפויות של החברה שלך (ואפילו הצהרת המשימה שלה), וכל ניגודי אינטרסים שעלולים לחפוף עם שימוש במוצרים שיוצרו על ידי מפתחי AI ספציפיים.
דברים שכדאי לקחת בחשבון:
מי בנה את ה-AI?
האם הוא מגיע מעבודה של חברה אחרת או משתמש ב-API, כגון מודלים גדולים של שפה של OpenAI (LLMs)?
האם לחברה שלך יש עסק מתנגש עם הבעלים של ה-AI?
האם אתה מכיר את מדיניות הפרטיות של החברה וכיצד היא מאחסנת נתונים שניתנו לכלי בינה מלאכותית?
האם מפתח הבינה המלאכותית מסכים לכל סוג של פיקוח?
האם ל-AI עשויות להיות הטיות רלוונטיות?
אפילו ה-AI החכמים ביותר יכולים לשקף את ההטיות הטבועות של יוצריהם, האלגוריתמים שהם בונים והנתונים שמהם הם מוצאים. באותו דו"ח של אפריל, AI Now מדווח כי פיקוח אנושי מכוון חוזר על מגמה זו, במקום למנוע אותה.
"אין הגדרה ברורה של מה יהווה פיקוח 'משמעותי', ומחקרים מצביעים על כך שאנשים המוצגים בפני עצות של כלים אוטומטיים נוטים להפגין הטיית אוטומציה, או כבוד למערכות אוטומטיות ללא בדיקה", מצא הארגון.
במאמר עבורהשיחה,חוקר אתיקה וחינוך טכנולוגי קייסי פילדר כותב שחברות טכנולוגיה רבות כןהתעלמות מההשלכות החברתיות של השימוש ב-AIבעד מהפכה טכנולוגית.
במקום "חוב טכני" - ביטוי המשמש בפיתוח תוכנה כדי להתייחס לעלויות העתידיות של פתרונות ממהרים ובכך לשחרר - פתרונות בינה מלאכותית עשויים לבוא עם מה שהיא מכנה "חוב אתי". פילדר מסביר שהזהירות לגבי מערכות בינה מלאכותית מתמקדת פחות בבאגים ויותר בפוטנציאל ההגברה שלה"הטיות וסטריאוטיפים מזיקיםותלמידים המשתמשים בבינה מלאכותיתבצורה מטעה. אנחנו שומעים עלדאגות פרטיות,אנשים שוללים על ידי מידע מוטעה,ניצול עבודהופחדים לגבי כמה מהרמשרות אנושיות עשויות להיות מוחלפות, אם להזכיר כמה. בעיות אלו אינן תקלות תוכנה. להבין שטכנולוגיה מחזקת דיכוי או הטיה שונה מאוד מלדעת שכפתור באתר לא עובד".
חברות מסוימות שיש להן שירותים אוטומטיים באמצעות מערכות AI, כמו ספקי ביטוח בריאות המשתמשים באלגוריתמים כדי לקבוע טיפול או כיסוי לחולים, התמודדו עם השלכות חברתיות ומשפטיות כאחד. בתגובה לתביעות בהובלת מטופלים בטענה שהשימוש במערכת בינה מלאכותית מהווה הונאה, הבהירה הממשלה הפדרלית כי הטכנולוגיהלא יכול לשמש לקביעת כיסוי ללא פיקוח אנושי.
במסגרות חינוכיות, הן התלמידים והן המורים הואשמו בשימוש בבינה מלאכותית בדרכים אפורות מבחינה אתית, בין אם לגניבת מטלות או כדי להעניש תלמידים באופן לא הוגן על סמך הטיות אלגוריתמיות. לטעויות אלו יש גם השלכות מקצועיות.
"כפי שחוב טכני יכול לנבוע מבדיקות מוגבלות במהלך תהליך הפיתוח, חוב אתי נובע מאי התחשבות בהשלכות שליליות אפשריות או בנזק חברתי", כותב פילדר. "ועם חוב אתי במיוחד, האנשים שצוברים אותו הם לעתים רחוקות האנשים שמשלמים עבורו בסופו של דבר".
למרות שמקום העבודה שלך עשוי להיראות כסכמי נמוך בהרבה מאשר סכימת ביטוח בריאות פדרלי או חינוך הדורות הבאים, זה עדיין משנה איזה חוב אתי אתה עלול לקחת על עצמו בעת שימוש בבינה מלאכותית.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.