התשובה היא הרבה יותר מסובכת מ"כן" או "לא". קרדיט: Mashable / Zain Awais
אנחנו לא יודעים מה אנחנו מרגישים לגביAI.
מאז ש-ChatGPT שוחרר בשנת 2022, טירוף הבינה המלאכותית הגנרטיבי עוררה פחד והייפ בו-זמנית, והותירה את הציבור עוד יותר לא בטוח במה להאמין.
לְפִידוח ברומטר האמון השנתי של אדלמן, האמריקאים הפכו פחות אמינים בטכנולוגיה משנה לשנה. רוב גדול של האמריקאים רוצהשקיפות ומעקות בטיחות סביב השימוש בבינה מלאכותית- אבל לא כולם אפילו השתמשו בכלים. אנשים מתחת לגיל 40 ואמריקנים בעלי השכלה בקולג' מודעים יותר וסביר יותר להשתמש בבינה מלאכותית גנרטיבית,על פי סקר ארצי מיוני של BlueLabs שדווח על ידי Axios. כמובן, האופטימיות נופלת גם על קווים פוליטיים: הסקר של BlueLabs מצא שאחד מכל שלושה רפובליקנים מאמין שבינה מלאכותית משפיעה לרעה על חיי היומיום, בהשוואה לאחד מכל חמישה דמוקרטים. אסקר Ipsos מאפרילהגיעו למסקנות דומות.
בין אם אתה סומך על זה או לא, אין הרבה ויכוח אם יש ל-AI פוטנציאל להיות כלי רב עוצמה. הנשיא ולדימיר פוטיןאמרו לסטודנטים רוסיםביום הראשון ללימודים ב-2017 שמי שיוביל את מירוץ הבינה המלאכותית יהפוך ל"שליט העולם".אילון מאסק צייץ ציטוטמאמר של Verge שכלל את הציטוט של פוטין, והוסיף כי "התחרות על עליונות בינה מלאכותית ברמה הלאומית היא ככל הנראה הסיבה למלחמת העולם השלישית". זה היה לפני שש שנים.
כל הדיונים הללו מניעים שאלה חיונית אחת: האם AI טוב או רע?
זו שאלה חשובה, אבל התשובה מורכבת יותר מ"כן" או "לא". ישנן דרכים שבהן נעשה שימוש בבינה מלאכותית גנרטיבית שהן מבטיחות, יכולות להגביר את היעילות ויכולות לפתור כמה מצרות החברה. אבל יש גם דרכים שבהן ניתן להשתמש בבינה מלאכותית גנרטיבית שהן אפלות, אפילו מרושעות, ובעלות פוטנציאל להגדיל את פערי העושר, להרוס מקומות עבודה ולהפיץ מידע מוטעה.
בסופו של דבר, האם בינה מלאכותית טובה או רעה תלויה איך משתמשים בה ועל ידי מי.
שימושים חיוביים ב-AI גנרטיבי
החיובי הגדול עבור AI שמבטיח ביג טק הוא יעילות. בינה מלאכותית יכולה להפוך משימות חוזרות ונשנות בתחומים כמו הזנת ועיבוד נתונים, שירות לקוחות, ניהול מלאי, ניתוח נתונים, ניהול מדיה חברתית, ניתוח פיננסי, תרגום שפות,יצירת תוכן, עוזרים אישיים, למידה וירטואלית, מיון וסינון דואר אלקטרוני, ואופטימיזציה של שרשרת האספקה, מה שמקל על העובדים מעט משימות מייגעות.
אתה יכול להשתמש ב-AI כדי ליצור אתוכנית אימוןאו לעזורליצור מסלול טיול. כמה פרופסורים משתמשים בזה כדי לנקות את עבודתם. לדוגמה, גלוריה וושינגטון, עוזרת פרופסור באוניברסיטת הווארד וחברה במכון למהנדסי חשמל ואלקטרוניקה, משתמשת ב-ChatGPT ככלי כדי להקל על חייה היכן שהיא יכולה. היא אמרה ל-Mashable שהיא משתמשת ב-ChatGPT משתי סיבות עיקריות: כדי למצוא מידע במהירות ולעבוד אחרת כמחנכת.
"אם אני כותב דוא"ל ואני רוצה להיראות כאילו אני באמת יודע על מה אני מדבר... אני אעביר את זה דרך ChatGPT כדי לתת לי כמה רמזים קטנים וטיפים איך לשפר את האופן שבו אני אומר את מידע באימייל או בתקשורת בכלל", אמר וושינגטון. "או אם אני נושא נאום, [אבקש עזרה מ-ChatGPT עם] משהו ממש מהיר שאוכל לשלב בקלות בנקודות הדיבור שלי."
בתור מחנך, זהמהפכה באופן שבו היא ניגשת לתת שיעורי בית. היא גם מעודדת תלמידים להשתמש ב-ChatGPT כדי לעזור במיילים ושפות קידוד. אבל זו עדיין טכנולוגיה חדשה יחסית, ואתה יכול לדעת. בעוד ש-80% מהמורים אמרו שהם קיבלו "הדרכה רשמית לגבי מדיניות ונהלים של שימוש בבינה מלאכותית", רק 28% מהמורים אמרו "שהם קיבלו הדרכה לגבי איך להגיב אם הם חושדים שתלמיד השתמש בבינה מלאכותית בדרכים שאינן מותר, כגון פלגיאט",על פי מחקר של המרכז לדמוקרטיה וטכנולוגיה.
"במחקר שלנו בשנת הלימודים שעברה, ראינו בתי ספר נאבקים לאמץ מדיניות סביב השימוש בבינה מלאכותית גנראטיבית, ומתלהבים לראות רווחים גדולים מאז", הנשיאה והמנכ"לית של המרכז לדמוקרטיה וטכנולוגיה, אלכסנדרה ריב גיבנס,אמר בהודעה לעיתונות. "אבל הסיכונים הגדולים ביותר של שימוש בטכנולוגיה זו בבתי ספר אינם מטופלים, עקב פערים בהכשרה והדרכה למחנכים לגבי השימוש האחראי בבינה מלאכותית ובכלי זיהוי נלווים. כתוצאה מכך, המורים נותרים חסרי אמון בתלמידים, ויותר תלמידים מסתבכים בצרות".
בינה מלאכותית יכולה לשפר את היעילות ולהפחית טעויות אנוש בתעשיות הייצור, הלוגיסטיקה ושירות הלקוחות. זה יכול להאיץ את המחקר המדעי על ידי ניתוח מערכי נתונים גדולים, הדמיית מערכות מורכבות וסיוע בתגליות מונעות נתונים. ניתן להשתמש בו כדי לייעל את צריכת המשאבים, לנטר את הזיהום ולפתח פתרונות ברי קיימא לאתגרים סביבתיים. כלים המונעים בינה מלאכותית יכולים לשפר חוויות למידה מותאמות אישית ולהפוך את החינוך לנגיש יותר למגוון רחב יותר של אנשים. ל-AI יש פוטנציאל לחולל מהפכה באבחונים רפואיים, גילוי תרופות ותוכניות טיפול מותאמות אישית.
אין להכחיש את החיוביות, אבל זה לא אומר ששווה להתעלם מהשליליות, אמרה קמיל קרלטון, מנהלת מדיניות בכירה במרכז לטכנולוגיה אנושית, ל-Mashable.
מהירות אור ניתנת לריסוק
"אני לא חושבת שהיתרונות העתידיים הפוטנציאליים האלה צריכים להניע את ההחלטות שלנו לא לשים לב ולהציב מעקות בטיחות סביב הטכנולוגיות האלה היום", אמרה. "מכיוון שהפוטנציאל של טכנולוגיות אלה להגביר את אי השוויון, להגביר את הקיטוב, להמשיך ולהשפיע [להשפיע על ההידרדרות של] הבריאות הנפשית שלנו, [ו]להגביר את ההטיה המערכתית, כולם אמיתיים וכולם מתרחשים עכשיו".
היבטים שליליים של AI גנרטיבי
אתה יכול להחשיב את כל מי שחושש מהיבטים שליליים של בינה מלאכותית גנרטיבית ללודיט, ואולי הם כן - אבל במובן מילולי יותר מאשר איך שהמילה נישאת היום. Luddites היו קבוצה של עובדים אנגלים בתחילת המאה ה-19 שהרסו מכונות ייצור טקסטיל אוטומטיות - לא בגלל שחששו מהטכנולוגיה, אלא בגלל שלא היה שום דבר כדי להבטיח שעבודותיהם בטוחות מהחלפה בטכנולוגיה. מעבר לכך, הם לא היו רק מסוכנים מבחינה כלכלית - הם רעבו בידי המכונות. עכשיו, כמובן, המילה משמשת לתיאור גנאי של אדם שחושש או נמנע מטכנולוגיה חדשה פשוט כי מדובר בטכנולוגיה חדשה.
במציאות, ישנם המון מקרי שימוש מפוקפקים עבור AI גנרטיבי. כשאנחנו שוקליםשירותי בריאות, למשל, יש יותר מדי משתנים לדאוג להם לפני שנוכל לסמוך על AI עם הרווחה הפיזית והנפשית שלנו. בינה מלאכותית יכולה להפוך משימות חוזרות ונשנות כמו אבחון שירותי בריאות על ידי ניתוח תמונות רפואיות באמצעות צילומי רנטגן ו-MRI כדי לסייע באבחון מחלות וזיהוי חריגות - מה שיכול להיות טוב, אבל רוב האמריקאים מודאגים מהשימוש המוגבר ב-AI בתחום הבריאות, על פי א.סקר מבית Morning Consult. החשש שלהם סביר: נתוני הכשרה ברפואה לרוב אינם שלמים, מוטים או לא מדויקים, והטכנולוגיה טובה רק כמו הנתונים שיש לה, מה שעלול להוביל לאבחנות שגויות, המלצות טיפוליות או מסקנות מחקריות. יֶתֶר עַל כֵּן,נתוני הכשרה רפואיים לרוב אינם מייצגים אוכלוסיות מגוונותמה שעלול לגרום לגישה לא שווה לאבחנות וטיפולים מדויקים - במיוחד עבור חולים בצבע.
מודלים גנרטיביים של בינה מלאכותית אינם מבינים ניואנסים רפואיים, אינם יכולים לספק שום סוג של דרך מוצקה ליד המיטה, חסרים אחריות ויכולים להתפרש לא נכון על ידי אנשי מקצוע רפואיים. וזה הופך להיות הרבה יותר קשה להבטיח את פרטיות המטופל כאשר נתונים מועברים דרך AI, קבלת הסכמה מדעת ומניעת שימוש לרעה בתוכן שנוצר הופכים לנושאים קריטיים.
"הציבור רואה בזה משהו שכל מה שהוא פולט החוצה הוא כמו אלוהים", אמר וושינגטון. "ולצערי זה לא נכון." וושינגטון מציינת כי רוב המודלים היצירתיים של AI נוצרים על ידי איסוף מידע מהאינטרנט - ולא כל דבר באינטרנט מדויק או נקי מהטיה.
פוטנציאל האוטומציה של בינה מלאכותית עשוי להוביל גם לאבטלה ולאי שוויון כלכלי. במרץ, גולדמן זאקס חזה זאתבינה מלאכותית יכולה בסופו של דבר להחליף 300 מיליון משרות במשרה מלאהבעולם, המשפיע על כמעט חמישית מהתעסוקה. AIחיסל כמעט 4,000 משרות במאי 2023ויותר משליש מהמנהיגים העסקיים אומרים שה-AI החליפה את העובדים בשנה שעברה,לפי CNBC. זה הוביל איגודי עובדים בתעשיות יצירתיות,כמו SAG-AFTRA, להילחם על יותרהגנה מקיפה מפני AI. מחולל וידאו ה-AI החדש של OpenAI Sora הופך את האיום של החלפת עבודה לממשי עוד יותר עבור תעשיות יצירתיות עםהיכולת ליצור סרטונים פוטוריאליסטיים מהנחיה פשוטה.
"אם בכל זאת נגיע למקום שבו נוכל למצוא תרופה לסרטן עם AI, האם זה קורה לפני שאי השוויון יהיה כל כך נורא שיש לנו אי שקט חברתי מוחלט?" שאל קרלטון. "האם זה קורה אחרי שהקיטוב ממשיך לגדול? האם זה קורה אחרי שאנחנו רואים יותר ירידה דמוקרטית?"
אנחנו לא יודעים. הפחד עם AI הוא לא בהכרח מסרט המדע הבדיוניiRobotיהפוך לסוג של סרט תיעודי, אבל יותר מכך שלאנשים שיבחרו להשתמש בו אולי אין את הכוונות הטובות ביותר - או אפילו יודעים את ההשלכות של העבודה שלהם.
"הרעיון הזה שהבינה המלאכותית הולכת להתקדם לנקודה שבה לבני אדם אין שום עבודה לעשות או שאין להם שום מטרה מעולם לא הדהד בי."סם אלטמן, מנכ"ל OpenAI, שהשיקה את ChatGPT, אמראֶשׁתָקַד. "יהיו כמה אנשים שיבחרו לא לעבוד, ואני חושב שזה נהדר. אני חושב שזו צריכה להיות בחירה נכונה, ויש עוד הרבה דרכים למצוא משמעות בחיים. אבל מעולם לא ראיתי עדויות משכנעות לכך מה שאנחנו עושים עם כלים טובים יותר זה לעבוד פחות".
עוד כמה מקרי שימוש מפוקפקים עבור AI כוללים את הדברים הבאים: ניתן להשתמש בומעקב פולשני, כריית נתונים ופרופילים, מהווים סיכונים לפרטפְּרָטִיוּתוחירויות האזרח; אם לא פותח בקפידה, AIמערכות יכולות לרשת הטיותמנתוני ההכשרה שלהם,מוביל לתוצאות מפלות בתחומים כמו גיוס עובדים, הלוואות ומשפט פלילי; בינה מלאכותית יכולה להעלות שאלות אתיות, כמו הפוטנציאל שלנשק אוטונומי, קבלת החלטות במצבים קריטיים, והזכויות של ישויות בינה מלאכותית; הסתמכות יתר על מערכות בינה מלאכותית עלולה להוביל לאובדן שליטה אנושית וקבלת החלטות, ועלולה להשפיע על יכולת החברה להבין ולטפל בנושאים מורכבים.
ואז יש את הדיסאינפורמציה. אל תתייחס למילה שלי - גם אלטמן חושש מזה.
"אני מודאג במיוחד שהמודלים האלה יכולים לשמש לדיסאינפורמציה בקנה מידה גדול",אמר אלטמן. "כעת, כשהם משתפרים בכתיבת קוד מחשב, [הם] יכולים לשמש עבור התקפות סייבר פוגעניות". למשל, שקול את הקול שנוצר בינה מלאכותיתשיחות רובוקות שנוצרו כדי להישמע כמו הנשיא ג'ו ביידן.
בינה מלאכותית גנרטיבית נהדרת ביצירת מידע מוטעה, פרופסור באוניברסיטת וושינגטוןקייט סטארבירד אמרה לאקסיוס. הסקירת טכנולוגיה של MITאפילו דיווח שבני אדם נוטים יותר להאמיןדיסאינפורמציה שנוצרת על ידי AIמאשר על ידי בני אדם אחרים.
"בינה מלאכותית גנרית יוצרת תוכן שנשמע הגיוני והגיוני, אך מתחשב מעט בדיוק", אמר סטארבירד. "במילים אחרות, זה מתפקד כמחולל [שטויות]." ואכן, כמה מחקרים מראים שמידע שגוי שנוצר על ידי AI משכנע אפילו יותר מתוכן שקרי שנוצר על ידי בני אדם.
מה זה אומר?
"במקום לשאול את השאלה הזו על טוב נטו או רע נטו... מה שיותר מועיל לכולנו לשאול זה, טוב איך?" אמר קרלטון. "מהן העלויות של המערכות האלה כדי להביא אותנו למקום הטוב יותר שאליו אנחנו מנסים להגיע? וטוב למי, מי הולך לחוות את המקום הטוב יותר הזה? איך ההטבות יחולקו ל[אלה] שנותרו מאחור מתי היתרונות האלה מופיעים אחרי שהנזקים כבר קרו - חברה עם בריאות נפשית גרועה יותר, והאם הכיוון שאליו אנחנו הולכים משקף את הערכים שלנו? העולם שאנו רוצים בו לגור ב?"
ממשלות תפסו את הסיכונים של AI ויצרו תקנות כדי לצמצם נזקים. הפרלמנט האירופי העביר החלטה גורפת "חוק AI"כדי להגן מפני יישומי בינה מלאכותית בסיכון גבוה, ומנהלת ביידן חתמה עלהוראת ביצועלתת מענה לדאגות AI בתחום אבטחת סייבר וביומטריה.
בינה מלאכותית גנרטיבית היא חלק מהעניין המולד שלנו בצמיחה ובהתקדמות, להתקדם כמה שיותר מהר במירוץ להיות גדולים, טובים ומתקדמים יותר מבחינה טכנולוגית מהשכנים שלנו. בתור דונלה מדוז, מדענית הסביבה ומחנכת שכתבההגבולות לצמיחה וחשיבה במערכות: פריימרשואל,מַדוּעַ?
"צמיחה היא אחת המטרות המטופשות ביותר שהומצאו אי פעם על ידי כל תרבות; אנחנו חייבים שיהיה לנו 'מספיק'."אמר מדוז. "אנחנו צריכים תמיד לשאול 'צמיחה של מה, ולמה, ועבור מי, ומי משלם את העלות, וכמה זמן זה יכול להימשך, ומה העלות לכדור הארץ, וכמה זה מספיק?'".
כל העניין של AI גנרטיבי הוא ליצור מחדש אינטליגנציה אנושית. אֲבָלWHOהאם להחליט על הסטנדרט הזה? בדרך כלל, התשובה הזו היא האליטות הלבנות העשירות. ומי החליט שחוסר אינטליגנציה אנושית היא בכלל בעיה? אולי אנחנו צריכים יותר אמפתיה - משהו שבינה מלאכותית לא יכולה לחשב.
כריסטיאנה סילבה היא כתבת תרבות בכירה ב- Mashable. הם כותבים על טכנולוגיה ותרבות דיגיטלית, עם התמקדות בפייסבוק ובאינסטגרם. לפני שהצטרפו ל-Mashable, הם עבדו כעורכים ב-NPR ו-MTV News, כתבים ב-Teen Vogue ו-VICE News, וכמחסני יציבות בחוות מיני סוסים. אתה יכול לעקוב אחריהם בטוויטר@christianna_j.