קרדיט: בוב אל-גרין / Mashable
בחודש שעבר, כשמצביעי ניו המפשייר התכוננו להצביע בבחירות המקדימות במדינה, חלקם התעוררו לקריאה לא אופיינית לפעולה של מנהיג ארצנו. הבוחרים היו קורבנות פוטנציאליים של ארובוקאל שנוצר בינה מלאכותיתתוכנן להישמע כמו הנשיא ג'ו ביידן בעצמו, וביקש מהם להישאר בבית ולא להצביע בבחירות המקדימות - שימוש מטריד בטכנולוגיה מתקדמת של זיוף עמוק שגורם לשיחות רובו של פעם להישמע כמו ניסיונות לא אנושיים בצורה מצחיקה.
הוגדרה במהירות מזויפת על ידי משרד המשפטים של ניו המפשייר (שעקבה אחר קריאות דחופות להמשיך להצביע), השיחה נוצרה על ידי משרד המשפטים בטקססתאגיד לייף, באמצעות ספריית Deepfake שהורכבה על ידי סטארט-אפ בינה מלאכותיתElevenLabs. תאגיד לייף הואשם מאז בעיסוק בדיכוי בוחרים.
זה היה סימן האזהרה האחרון ששחקנים חמושים בוAIעשוי לנקוט דקירה בהשפעה על מרכיבים של הבחירות הקרובות לנשיאות.
החששות לגבי AI הובילו את מכלול האפשרויות החברתיות והפוליטיות, אבל כמעט כולם טוענים שלטכנולוגיה יש פוטנציאל בלתי מבוטל לקדם את טווח הדיסאינפורמציה. מרכז מדיניות ציבורית ללא מטרות רווח, מכון ברוקינגס, למשל, טוען שבעוד שחששות רבים סביב הפוטנציאל של AI עשויים להיות היפרבוליים, יש תשומת לב מוצדקת כיצדAI גנרטיבי ישנה באופן עמוק את הייצור וההפצה של מידע מוטעה.
"AI יכולה להפוך מידע שגוי ליותר נרחב ומשכנע. אנחנו יודעים שהרוב המכריע של סיפורי מידע שגוי פשוט לא נראים על ידי יותר מקומץ אנשים, אלא אם כן הם 'זוכים בלוטו' ופורצים דרך להדהד בנוף התקשורתי. אבל עם כל אחד מהם סיפור שקרי, תמונה ווידאו נוספים, התרחיש הזה הופך סביר יותר", כתב המכון.
מלכ"ר משפטי אתמרכז ברנן לצדקכבר כינה את שנות ה-20 "תחילת עידן הזיוף העמוק בבחירות", לא רק בארה"ב אלאמסביב לעולם. "המועמדים הרפובליקניים לראשון כבר משתמשים בבינה מלאכותית בפרסומות של מסעות פרסום", המרכזדיווח. "הכי מפורסם, הקמפיין של מושל פלורידה רון דה-סנטיס יצא לאורתמונות שנוצרו על ידי AIשל הנשיא לשעבר דונלד טראמפ מחבק את אנתוני פאוצ'י, שהפך למוט ברק בקרב מצביעי הבחירות המקדימות הרפובליקניות בגלל מדיניות ההפחתה של קוביד-19 שבה דגל".
התגובה של המדיה החברתית עשויה למלא תפקיד מרכזי גם ב"איום" של AI על הדמוקרטיה והאמת, וכדברי החברות שמאחורי הפיתוח שלה, AI רק הולכת ונעשית חכמה יותר - שלא לומר אוניברסלית יותר. פיתוח אוריינות תקשורתית חזקה יותר חשוב מאי פעם, וכןאיתור מידע מוטעה בבחירותהופך מורכב יותר.
מקנזי סדגי, עורך בינה מלאכותית והשפעה זרה לכלב שמירה על מידע שגויNewsGuard, הסביר ל-Mashable שיש לארגוןעקבו אחר הנשק של AI במגוון צורות, מיצירת אתרי חדשות שלמים באיכות נמוכה מאפס ועד לסרטונים, אודיו ותמונות מזויפים עמוקים. "עד היום, זיהינו 676 אתרים שנוצרו על ידי AI ופועלים ללא פיקוח אנושי", אמר סדגי. "דבר אחד שנראה מקרוב הוא הצומת של AI ורשתות 'רפש ורוד', שהם כלי חדשות מפלגתיים שמציגים את עצמם ככלי חדשות מקומיים מהימנים ומנסים להגיע לבוחרים ולמקד אותם באמצעות פרסום בפייסבוק".
על פי המחקר של Sadeghi ו-NewsGuard, הנתונים הסטטיסטיים הללו צפויים לגדול. "כאשר התחלנו לזהות את האתרים הללו לראשונה בשנת 2023, מצאנו בתחילה 49 אתרים. המשכנו לעקוב אחר אותם על בסיס שבועי וגילינו שהם לא מראה סימני האטה. ואם זה ימשיך במסלול, זה יכול להיות קרוב יותר. עד שנות ה-1000 עד שנתקרב לבחירות", הסביר סדגי
מה צריך לדעת על חוקים ותקנות AI
בינה מלאכותית נותרה תחום אפור לרגולציה, שכן מנהיגי הקונגרס לא הצליחו להסכים על דרך מונעת סיכונים קדימה ולא הצליחו להעביר שום חוק הממתן את עליית הבינה המלאכותית.
באוקטובר 2023 הוציא ממשל ביידן הודעהצו ביצוע המתאר תקנים חדשים לבטיחות בינה מלאכותיתואבטחה, כולל הנחיה למשרד המסחר לקבוע דרכים לאיתור תוכן AI והונאות.
בתגובה לעלייה בהונאות וזיופים עמוקים ב-AI, ה-FCC הכריז על הצעה להוציא מחוץ לחוק שיחות רובו-בינה מלאכותיות לחלוטין במסגרת חוק הגנת הצרכן הטלפוני (TCPA).
ועדת הבחירות הפדרלית (FEC) עדיין לא פרסמה תקנות בינה מלאכותית, אבל היו"ר שון קוקסי הצהיר שהנחיות יפותחו בקיץ הקרוב.
חלק מבתי המחוקקים של המדינה גם העלו את דעתם על הספרים. הוועידה הלאומית של בתי המחוקקים של המדינה ערכה ארשימה של מדינות המטפלות באיום של AI בבחירות. מדינות בעלות חוקים מפורשים ש"אוסרות פרסום של אמצעי תקשורת מטעים מהותית שנועדה לפגוע במועמד או להונות בוחרים", או אוסרות זיוף עמוק באופן ספציפי, כוללות:
קליפורניה
מישיגן
מינסוטה
טקסס
וושינגטון
בעוד שמדינות אחרות הציגו חוקים לבלימת השימוש ב-AI במהלך הבחירות, מעטות עברו. חוקי המדינה המוצלחים כוללים:
מישיגן (דורש חשיפה של AI במודעות בחירות)
מינסוטה (אוסרת על זיופים עמוקים שנועדו להשפיע על בחירות)
וושינגטון (דורש חשיפת "מדיה סינתטית" המשמשת להשפעה על בחירות)
סימני מים בינה מלאכותית
מפסק נוסף לתוכן AI שמקודם על ידי רבים הואטכנולוגיית סימני מים תמונה ווידאו. עבור בינה מלאכותית, זה כרוך בלימוד מודל להטמיע חתימה מבוססת טקסט או תמונה בכל פיסת תוכן שהיא יוצרת, מה שמאפשר לאלגוריתמים עתידיים להתחקות אחר מקורות התוכן.
בשנת 2023,OpenAI, Alphabet, Meta ושמות מרכזיים אחרים בפיתוח AI התחייבו לפתח טכנולוגיות סימון מים משלהם שיעזרו לזהות תוכן שעבר מניפולציות.
באוקטובר 2023, Meta הציגה את הפתרון המוצע שלה הידוע בשםחתימה יציבה, שיטה להוספת סימני מים לתמונות שנוצרו באמצעות כלי הבינה המלאכותית הגנרטיבית שלה בקוד פתוח. במקום להחיל סימני מים על תמונות שלאחר ההפקה, Stable Signature מוסיפה סימני מים בלתי נראים המיוחסים למשתמשים ספציפיים ישירות בדגמי AI מחוללים עצמם, לפי Meta.
ב-7 בפברואר, OpenAI הודיעה שזה יהיההוספת סימני מים הניתנים לזיהוי באופן דומה לכל התמונות שנוצרו על ידי DALL-E 3, בהתאם להנחיות שנוצרו על ידי הקואליציה למקור ואותנטיות של תוכן (C2PA). כפי שדיווחה Cecily Mauran של Mashable, C2PA הוא תקן טכני המשמש את Adobe, Microsoft, BBC וחברות ומפרסמים אחרים כדי לטפל בשכיחות של זיופים עמוקים ומידע מוטעה "על ידי אישור המקור וההיסטוריה (או מקורו) של תוכן מדיה".
עם זאת, סימני מים אינם פתרון מלא. בעוד שעדיין בשלביו הראשונים, מחקרים מראים שסימני מים בינה מלאכותית כןפגיע למניפולציה, הסרה ואפילו תקיפהמשחקנים של צד שלישי.
מדיניות חברת AI
אדובי עשתה בעברמחויב לאמצעי הבטיחות והאבטחה של AIהוכרז על ידי הבית הלבן בספטמבר, כמו גם אתיוזמת אותנטיות תוכןנתמך על ידי C2PA.
בנובמבר, Microsoft (היוצר שלBing AI chatbot Copilot) הנפיק משלוהנחיות בחירות, שכלל כלי חדש המאפשר למשתמשים לחתום ולאמת את המדיה שלהם באופן דיגיטלי (כולל חומרי בחירות) באמצעות הנחיות סימון המים של C2PA. "אישורי סימון מים אלה מחזקים אדם או ארגון לטעון שתמונה או סרטון הגיעו מהם תוך הגנה מפני שיבוש על ידי הצגת תוכן שונה לאחר יצירת האישורים שלו", הסבירה החברה.
מיקרוסופט גם התחייבה ליצור מרכז תקשורת בחירות ו"צוותי הצלחה של מסע פרסום" ספציפיים כדי לסייע למועמדים ולרשויות הבחירות.
מהירות אור ניתנת לריסוק
בדצמבר, אלפבית הודיעה שכןלהגביל את סוגי השאלות הקשורות לבחירותמודל הבינה המלאכותית של גוגלמַזַל תְאוּמִים(לשעבר בארד) יוכל להגיב, כדי לבלום מידע מוטעה המופץ לעתים קרובות על ידי צ'אטבוטים.
בינואר, OpenAI שוחררמדיניות בחירות חדשה כדי להילחם במידע מוטעה, כולל שקיפות טובה יותר סביב מקור התמונות והכלים המשמשים ליצירתן וכלי עתידי לזיהוי תמונות בינה מלאכותית. OpenAI כבראסר על מפתחים להשתמש בטכנולוגיות OpenAI לקמפיין פוליטי.
למרות ניסיונות האבטחה הללו, מומחים רבים זהירים חוששים שהצורות המסוכנות ביותר של התעסקות בבינה מלאכותית לא יבואו מהשמות הגדולים של התעשייה, אלאקוד פתוח לא מוסדרשימושים בטכנולוגיית AI בכלל.
מדיניות מדיה חברתית
פלטפורמות מדיה חברתית, ללא ספק המרכז העיקרי להפצת תוכן שעבר מניפולציות בבינה מלאכותית, פרסמו דרגות שונות של מדיניות כדי לטפל בכל שימוש בבינה מלאכותית בפלטפורמות שלהן - מדיניות ש-Sadeghi מציין לא תמיד נאכפת.
יוטיוב (וחברת האם גוגל) הודיעו בספטמבר כי כליש לחשוף שינוי בינה מלאכותית שבוצעה במודעות פוליטיותלמשתמשים.
לאחרונה, מטה הודיעה שזה יקרהלהכפיל את זיהוי התמונות ששונו בינה מלאכותיתעל פני הפלטפורמות שלה פייסבוק, אינסטגרם ו-Threads. Meta אומרת שהיא תוסיף את תוויות הבינה המלאכותית שלה לכל תוכן הבינה המלאכותית מגוגל, OpenAI, Microsoft, Adobe, Midjourney ו-Shutterstock. Meta הודיעה בעבר על כךלדרוש ממפרסמים לחשוף מודעות ששונו בינה מלאכותיתעל הפלטפורמות שלה, אבל לאחרונה ספגה אש בגלללא מצליחים לאכוףהמדיניות שלה נגד "תקשורת מטופחת".
לסנאפצ'ט ישהתחייב להמשיך בבדיקה אנושית של כל המודעות הפוליטיות, תוך הקפדה על "שימושים מטעים" של AI כדי להונות משתמשים.
TikTok גם הנפיקה אתוכנית למחזור הבחירות 2024, נשען על שיתופי הפעולה הקודמים שלה עם ארגוני בדיקת עובדות וחוזר על מערכת אימות ה-blue check משלה. הפלטפורמה גם ציינה שהיא תהיה ערנית למניפולציות של בינה מלאכותית: "תוכן שנוצר על ידי בינה מלאכותית (AIGC) מביא לאתגרים חדשים סביב מידע שגוי בתעשייה שלנו, שאליו טיפלנו באופן יזום עם כללים מוצקים וטכנולוגיות חדשות. אנחנו לא מאפשרים תוכן שעבר מניפולציות יכול להיות מטעה, כולל AIGC של אישי ציבור אם הוא מתאר אותם תומכים בהשקפה פוליטית כלי ראשון מסוגו לעזור לאנשים לעשות זאת".
X/Twitter עדיין לא הכריזה על מדיניות חדשה לבחירות 2024, בעקבות היפוך מדיניות שמאפשר כעת פרסום קמפיין פוליטי באתר.הנחיות עדכניותלאסור שיתוף של תוכן "סינטטי, מניפולציה או מחוץ להקשר" ולהדגיש תיוג והערות קהילתיות כדי לעצור את הפצת המידע השגוי.
"באופן כללי, בעוד שלחלקם יש מדיניות, שחקנים רעים מצאו דרכים לעקוף אותם בקלות", אמר סדגי של הצעדים של חברת המדיה החברתית להילחם במידע מוטעה בינה מלאכותית. "גילינו שמידע שגוי לא תמיד מכיל את התווית, או שעד שמתווסף לה תווית, הוא כבר נצפה על ידי אלפי ואלפי אנשים".
כיצד לקרוא עבור AI בטקסט
חוסר רגולציה ואכיפת מדיניות עקבית מדאיג מצביעים פוטנציאליים שאינם מוכשרים להעריך את אמיתות התוכן המופץ באינטרנט.
באתרי חדשות הונאה
בהערכה האם עמוד חדשות מקוון נוצר כולו בינה מלאכותית, או אפילו אם רק חלק מהתוכן שלו מבוסס בינה מלאכותית, הסביר Sadeghi שהשיטות של NewsGuard כוללות סריקה לאיתור אינדיקטורים של פלגיאט בינה מלאכותית והֲזָיָה, כמו גם ניתוח מדיניות האתר עצמו.
"זה מסתכם בעיקר באיכות ואופי התוכן, כמו גם בשקיפות של האתר", מסביר סדגי. "ברוב האתרים שנוצרו בינה מלאכותית שראינו יש סימני סיפור, הכוללים מידע סותר. הרבה מדגמי הבינה המלאכותית האלה הוזים ומייצרים עובדות מומצאות. אז אנחנו נראה את זה הרבה. דבר נוסף הוא השימוש של גניבה ספרותית וחזרה רבים מאתרי האינטרנט הללו ממחזרים תוכן חדשותי ממקורות מיינסטרים ומשכתבים אותו כשם ללא כל ייחוס".
סדגי מציע לחפש ולבדוק עובדות שמות מחברים (או קווי כותרת) בראש הסיפורים הללו, כמו גם מידע ליצירת קשר עם הכותב, העורכים או הפרסום עצמו. הקוראים יכולים גם לחפש שפע של ביטויים חוזרים ובונים כמו "לסיכום", שחסרים את מה שסדגי מכנה מגע אנושי.
איתור כתיבת AI בטקסט בגדול
באופן כללי, ניתן להשתמש באסטרטגיות פשוטות בדומה לפענוח מהיר אם גוף הטקסט נוצר בינה מלאכותית.
לדוגמה, Better Business Bureau מזהירה מפנישימוש בצ'אטבוטים של AI ליצירת טקסט להתחזותוהונאות אחרות מבוססות טקסט. הארגון מציע להיזהר מ:
משפטים קצרים עם שפה חסרת דמיון, ללא ניבים או התכווצויות.
אמירות בלתי סבירות.
לפי מדריכים מסקירת הטכנולוגיה של MITואמריטוס, חפש את:
שימוש יתר במילים נפוצות כגון "ה", "זה" או "יש".
אין שגיאות הקלדה או טקסט משתנה, מה שיכול להצביע על כך שצ'אט בוט "ניקה" את הטקסט.
חוסר הקשר, עובדות ספציפיות או סטטיסטיקות, ללא ציטוטים.
שפה וז'רגון "מהודרים" מדי, ומעט סלנג או טונים שונים.
יש חוקרים שאפילומשחקים שפותחולעזור לאנשים לקרוא ולזהות טקסט שנוצר על ידי מחשב.
כיצד לזהות תמונות שנוצרו בינה מלאכותית
רוב המשתמשים המקוונים מכירים יותר את זיהוי הסוג של "עמק מוזרתמונות שנוצרו על ידי בינה מלאכותית, כולל פרצופים אנושיים מעט, ידיים בעיבוד גרוע וחיוכים מעוררי שיניים מוזרים.
אבל טכנולוגיית deepfake מקשה על זיהוי מלא היכן מסתיימת המציאות ומתחילה AI.
מעקב אחר טביעות האצבעות של AI גנרטיבי
הצעד הראשון הוא בהבנת ההקשר של תמונה וכיצד היא מוצגת, על פי הלשכת עסקים טובה יותר. "שאלו את עצמכם שאלות מסוג זה: האם התמונה או הקול משמשים בלחץ לנקוט בפעולה דחופה, כזו שנראית מפוקפקת, כמו שליחת כסף לאדם זר, או באמצעות מנגנון תשלום בלתי צפוי או מוזר? האם ההקשר פוליטי, והאם זה נראה כאילו מישהו מנסה לגרום לך להרגיש כעס או רגשי?"
אם זו תמונה של ידוען פופולרי או דמות ידועה, חפש את התמונה ברזולוציה הגבוהה ביותר האפשרית והגדל.טעויות חזותיות נפוצותשנוצר על ידי AI, כגון:
חוסר עקביות לוגית, כגון חפצים צפים, סימטריה מוזרה, או חפצים ובגדים שנראים נעלמים לתוך חפצים או רקעים אחרים.
חוסר הבחנה בין החזית לרקע, וצללים מוזרים.
מרקמים מוזרים או מראה מאוד "מבריק" או "מוברש" לעור.
החל את אותו סוג של בדיקה עבור סרטונים, אך זכור גם:
תאורה לא טבעית או תנועות צל.
תנועות גוף לא טבעיות, כמו מצמוץ (או היעדר זה).
היו מכוונים גם לאודיו שנוצר בינה מלאכותית, וכאשר יש לך ספק בדוק שוב תמונה או סרטון עם הסובבים אותך או מקור חדשותי מכובד.
בדיקת עובדות באמצעות גוגל
אנשים יכולים גם להשתמש בכלים שהם מקיימים איתם אינטראקציה על בסיס יומי כדי לסייע בזיהוי תמונות שנוצרו על ידי AI. ההרחבה האחרונה של Google של הכלי About This Image שלה מאפשרת לכל משתמש לאשר את הלגיטימיות של תמונות, כולל מציאת תוויות AI וסימני מים.
כיצד להשתמש בכלי גלאי AI אוטומטיים
כפי ש- AI גנרטיבי הפך את עצמו לפופולארי בשווקים, כך גם שירותי זיהוי AI אוטומטיים. רבים מהכלים הללו תוכננו על ידי מפתחי בינה מלאכותית בעצמם, למרות שכלבי שמירה על מידע שגוי שחררו משאבים משלהם לזיהוי בינה מלאכותית.
אבל בדומה לתוכן שהם נועדו לזהות, לכלים האלה יש את הגבולות שלהם, אמר Sadeghi. ואפילו יוצריהם הודו בטעויות. לְאַחַרמשיקה סיווג טקסט משלה בינה מלאכותיתבתחילת 2023, OpenAI משכה את הכליעל הדיוק הנמוך המדווח.
לדוגמה, בתחום החינוך, בוטים של בינה מלאכותית וגניבת עין זכו לביקורת על כך שהחריפו את הטיות המודל כלפי דוברים מסוימים שאינם דוברי אנגלית ועל יצירת תוצאות חיוביות שגויות שפוגעות בתלמידים.
אבל הם מציעים מקום להתחיל לעין הביקורתית.
"יש כמות הולכת וגדלה של כלי זיהוי בינה מלאכותית כמו GPTZero ואחרים", הסביר Sadeghi. "אני לא חושב שהם טובים לשימוש רק בפני עצמם - לפעמים הם יכולים לגרום לתוצאות חיוביות שגויות. אבל אני חושב שבמקרים מסוימים הם יכולים לספק הקשר נוסף."
כלי זיהוי AI בחינם
תוסף דפדפן מקור: נוצר ככלי חינמי, מבוסס דפדפן על ידי גלאי AI GPTZero, Origin עוזר למשתמשים להבחין אם הטקסט הוא אנושי או כתוב במחשב.
Copyleaks: כלי אינטרנט חינמי ותוסף לדפדפן Chrome שסורק אחר טקסט שנוצר בינה מלאכותית וגניבת דעת.
Deepware: סורק וידאו ותמונה עמוק מזויף המאפשר למשתמשים להעתיק ולהדביק קישורים לתוכן חשוד בזיוף עמוק.
כלי מנוי בתשלום
GPTZero: אחד מגלאי התוכן הפופולריים ביותר של AI, המינויים בתשלום של GPTZero משווקים עבור מורים, ארגונים ויחידים.
SynthID: כלי בתשלום עבור מנויי Google Cloud המשתמשים בפלטפורמת Vertex AI של החברה ובמחולל התמונות של Imagen, SynthID עוזר למשתמשים לזהות תמונות שנוצרו על ידי AI ומציע כלים לסימון מים ליוצרי תמונות AI.
הרחבה לדפדפן NewsGuard: NewsGuard מציעה שירות משלה בתשלום לאיתור מידע שגוי באופן נרחב, הכולל תוסף דפדפן שמנתח אוטומטית את האמינות של אתר חדשות, כולל תוכן שהשתנה בינה מלאכותית.
רוצה עודטוב חברתיחדשות מועברות ישירות לתיבת הדואר הנכנס שלך? הירשם לניוזלטר הסיפורים המובילים של Mashableהַיוֹם.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.