ככל שהחששות לגבי זיופים עמוקים פוליטיים גוברים, חלקם עובדים על שיפור הזיהוי. קרדיט: ALEXANDRA ROBINSON / AFP / Getty Images
סרטוני החלפת פנים מזויפים עדיין לא השתלטו על האינטרנט או פתחו במלחמת עולם, אבל יש מתכנתים שעובדים קשה כדי לשפר את כלי הזיהוי כשהחשש עובר לשימוש פוטנציאלי בקליפים כאלה למטרות תעמולה פוליטית.
עברה יותר משנה מאזReddit סגר את הסוbreddיט ה-deepfake הפופולרי ביותר שלה, r/deepfakes, וגופים ממשלתיים והתקשורת ממשיכים לעשות זאתלסחוט את ידיהםעל התפתחות הטכנולוגיה הנעזרת בבינה מלאכותית המאפשרת לאנשים ליצור סרטונים מציאותיים ביותר של כל אחד, מפורסם או לא, שעושה בעצם כל דבר.
ככל שמחזור הבחירות לנשיאות 2020 יוצא לדרך עם חששות חדשים לגבי פריצות נוספות ועוד ניסיונות של שחקנים זרים להתערב בבחירות, החשש עובר מפורנו נקמה וניצול סלבריטאים לסרטוני החלפת פנים ממניעים פוליטיים. קליפים אלה יכולים לשמש כחלק ממסעות פרסום שגויים או אפילו מאמצים גדולים יותר לערער את היציבות בממשלות.
ולמרות שכמה מומחים מאמינים שהאיום לא כל כך חמור כפי שתגובת התקשורת מרמזת, זה לא מנע מאחרים לעשות כמיטב יכולתם כדי לעדכן את התוכנה המזהה זיופים עמוקים עם הטכנולוגיה המתפתחת שגורמת לסרטונים להחלפת פנים להיראות יותר. יותר אמיתי.
הופעתם של זיופים עמוקים
כאשר סרטון Deepfake החל למשוך תשומת לב נרחבת בתחילת 2018, החשש ממומחיםוהתקשורתהיה מיידי: הם השמיעו אזעקה לגבי הטכנולוגיההשפעות שליליות אפשריות. ככל שהתוכנה החינמית ליצירת זיופים עמוקים הפכה זמינה יותר, משותפת דרך פלטפורמות כמו Reddit ו-Github, אתרים חברתיים הוצפו בסרטונים פורנוגרפיים מזויפים שנוצרו באמצעות הטכנולוגיה, כאשר משתמשים בדרך כלל שמים את פניהן של נשים מפורסמות כמו גל גדות וסקרלט ג'והנסון. של שחקני קולנוע מבוגרים.
לדאוגיצירת פורנו נקמה מזויףהתפשט כשהתברר שאפשר להשתמש בתוכנה כדי להכניס פניו של שותף לשעבר לסרטון פורנוגרפי. שחקנים גרועים יכולים להשתמש בטכנולוגיית Deepfake כדי לשלוט בשותף, לשעבר או אויב על ידי סחיטה או שחרור של הסרטון לאינטרנט.
Reddit הגיב על ידי איסור על r/deepfakes subreddit, פורום פופולרי לסרטונים שנוצרו עם התוכנה המתפתחת. בסופו של דבר, לא הרעיון הכללי של החלפת פנים הוא שדחף את האיסור, אלא שימוש בטכנולוגיה זו כדי ליצור פורנו מזויף, ללא הסכמה, עם החלפת פנים.
האיסור על r/deepfakes subreddit היכה גלים בתחילת 2018. קרדיט: Reddit
בהצהרה על האיסור, נציגי Reddit אמרו, "סוברדיט זה נאסר עקב הפרה של מדיניות התוכן שלנו, במיוחד המדיניות שלנו נגד פורנוגרפיה בלתי רצונית".
סוברדיט נוסף, r/FakeApp, המוקדש לתוכנית זמינה נרחבת שאפשרה למשתמשים ליצור בקלות את הסרטונים האלה,גם נאסר.
אבל אפילו כשפלטפורמות כמו Reddit נלחמו בזיופים עמוקים פורנוגרפיים אלה, הדאגה הפכה כעת לצרות הפוטנציאליות שזיופים עמוקים בעלי נושא פוליטי יכולים לשחרר.
דאגה לשימושים פוליטיים
למרות שעדיין לא היה מקרה מסוים של סרטון החלפת פנים פוליטי המוביל לאי יציבות בקנה מידה גדול, רק לפוטנציאל יש פקידים בכוננות גבוהה. לדוגמה, סרטון מזויף יכול להיות נשק על ידי כך שמנהיג עולמי ייראה כאילו הוא אומר משהו פוליטי, שנועד לעורר תגובה או לזרוע כאוס. די בדאגה שמשרד ההגנה האמריקני התגברניטור משלה אחר סרטונים מזויפים עמוקיםכפי שהם נוגעים לפקידי ממשל.
אם הבית הלבן נופל על קטעי וידאו מבולבלים, זה מפחיד לחשוב באיזו קלות הם יוטעו על ידי זיוף עמוק באיכות גבוהה.
בהתחשב בכך שהנשיא טראמפ כל כך זועק "חדשות מזויפות!" על דיווחים שהוא לא אוהב, מה מונע ממנו לטעון שסרטון אמיתי כמו, נגיד, קלטת הפיפי, מזויף, לאור ריבוי הזיופים העמוקים? הוא כבר הלך בדרך הזו ביחס למניפולציה קולית לגבי הידועים לשמצהגישה להוליוודסֶרֶט.
הוא, והבית הלבן, גם ביצעו את הפצת סרטונים שהשתנו. למרות שזה לא זיוף עמוק, טראמפ שיתף לאחרונה סרטון של יו"ר בית הנבחרים (והסכל של טראמפ) ננסי פלוסי שהיהפשוט האט מספיקכדי לגרום לפלוסי להיראות כמאט את הדיבור שלה. הסרטון הזה,הופרכה במהירות, עדיין הופץ ל-60 מיליון עוקביו בטוויטר של טראמפ.
ייתכן שהציוץ נמחק
זאת בעקבות תקרית בנובמבר 2018 שבה מזכירת העיתונות של הבית הלבן שרה סנדרסשיתף סרטון שהשתנהמאת אתר הקונספירציות הידוע לשמצה InfoWars. הקליפ גרם לזה להיראות כאילו לכתב CNN ג'ים אקוסטה הייתה תגובה פיזית יותר לעובד בבית הלבן ממה שהוא עשה בפועל.
אם הם יתאהבו בסרטונים האלה, זה מפחיד לחשוב באיזו קלות הם יוטעו על ידי זיוף עמוק באיכות גבוהה.
אולי הדרך הקלה ביותר לחשוב על ההשלכות הפוטנציאליות של זיופים עמוקים פוליטיים היא ביחס לבעיות אחרונותעם וואטסאפ של פייסבוק, אפליקציית הודעות כלומראפשרו את ההפצה הוויראלית של שמועותלכדור שלגאלימות בחיים האמיתיים. תארו לעצמכם אם סרטון דיפפייק פוליטי משכנע היה הופך לוויראלי כמו סרטוני ווטסאפהובילו לאלימות האספסוף
עדיין מוצא בית ב- Reddit
אולי הדוגמה הידועה ביותר לסוגים אלה של זיופים עמוקים בעלי גוון פוליטי היא אחת בהפקה משותפת של באזפיד והשחקן/במאי ג'ורדן פיל. באמצעות סרטון של החיקוי המדהים של ברק אובמה ופילי לנשיא לשעבר, הרשת יצרה סרטון אמין של אובמה אומר דברים שמעולם לא אמר במאמץהפצת מודעות לסוגים אלה של קליפים.
אבל דוגמאות אחרות מתפשטות ברשת בפינות סבירות יותר, כלומר Reddit. בעוד ש-r/deepfakes subreddit נאסר, פורומים מאולפים אחרים צצו, כמוr/GIFFakesוr/SFWdeepfakesשבו משותפים זיופים עמוקים שנוצרו על ידי משתמשים ונשארים במסגרת תנאי השירות של Reddit (כלומר, ללא פורנו).
רובם הם מהזן המטופש יותר, לעתים קרובות מכניסים מנהיגים כמו, למשל, דונלד טראמפ, לסרטים מפורסמים.
אבל יש כמה מרחפים מסביב שמשקפים ניסיונות מרוכזים יותר ליצור זיופים עמוקים פוליטיים משכנעים.
מהירות אור ניתנת לריסוק
ויש ראיות ממשיות לקבוצה שמנסה למנף זיוף עמוק של טראמפ למודעה פוליטית.ה-sp.a, מפלגה בלגית סוציאליסטית דמוקרטית, השתמשה בסרטון טראמפ המזויף בניסיון לגייס חתימות לעצומה הקשורה לשינויי אקלים. כשפורסם בטוויטר בחשבון המפלגה, הוא מלווה בהודעה שתורגמה ל"לטראמפ יש מסר לכל הבלגים".
ייתכן שהציוץ נמחק
הסרטון נחשב כזיוף כשטראמפ מוצג ואומר, "כולנו יודעים ששינוי האקלים הוא מזויף, בדיוק כמו הסרטון הזה". אֲבָל,כפי שמציין באזפיד, החלק הזה ממש הולך לאיבוד בתרגום.
"עם זאת, זה לא מתורגם להולנדית בכתוביות והווליום יורד בחדות בתחילת המשפט הזה, אז קשה לזהות. לא תהיה שום דרך לצופה שצופה בסרטון בלי עוצמת קול לדעת שהוא מזויף מה- טֶקסט."
בעוד שרבות מהדוגמאות הללו הגיעו מרפרוף פשוט של Reddit, יש הרבה פינות אפלות יותר ברשת (4chan, למשל) שבהן סרטונים מסוג זה יכולים להתרבות. עם הדחיפה הנכונה, הם יכלו בקלות לזנק לפלטפורמות אחרות ולהגיע לקהל רחב ונאיבי.
אז יש צורך אמיתי בכלי זיהוי, במיוחד כאלה שיכולים לעמוד בקצב הטכנולוגיה המתפתחת כל הזמן המשמשת ליצירת הסרטונים האלה.
כהרף עין
יש לפחות סימן מובהק אחד שמשתמשים יכולים לחפש כאשר מנסים לקבוע אם סרטון החלפת פנים אמיתי: מהבהב. מחקר משנת 2018פורסםמאת קורנל התמקדה באופן שבו פעולת המצמוץ מיוצגת בצורה גרועה בסרטונים מזויפים עמוקים בגלל היעדר סרטונים זמינים או תצלומים המציגים את הנושא בעיניים עצומות.
כְּמוֹPhys.org ציין:
בני אדם מבוגרים בריאים ממצמציםאיפשהו בין כל 2 ל-10 שניות, ומצמוץ בודד לוקחבין עשירית לארבע עשיריות השנייה. זה מה שיהיה נורמלי לראות בסרטון של אדם מדבר. אבל זה לא מה שקורה בהרבה סרטונים מזויפים עמוקים.
אתה יכול לראות על מה הם מדברים על ידי השוואת הסרטונים שלהלן.
במקום אחר, פייסבוק, שעמדה בפני הר של ביקורת על הדרךחדשות מזויפות מתרבותעל הרציף, הואבאמצעות כלי למידת מכונה משלהלזהות סרטונים מזויפים ושיתוף פעולה עם שותפיה לבדיקת עובדות, כולל Associated Press ו-Snopes, כדי לבחון תמונות וסרטונים מזויפים פוטנציאליים שמסומנים.
כמובן, המערכת טובה רק כמו כלי התוכנה שלה -- אם סרטון Deepfake לא מסומן, הוא לא מגיע לבודקי העובדות -- אבל זה צעד בכיוון הנכון.
נלחם בחזרה עם כלי זיהוי
ישנם מומחים וקבוצות שעושים צעדים גדולים בזירת הגילוי. אחד מאלה הואמתיאס ניסנרשל האוניברסיטה הטכנית של גרמניה במינכן. ניסנר כןחלק מצוותזה בוחן מערך נתונים גדול של סרטונים ותמונות שעברו מניפולציות כדי לפתח כלי זיהוי. ב-14 במרץ 2019, הקבוצה שלופרסם "אמת מידה לזיהוי פנים"שם, הוא אמר ל-Mashable בדוא"ל, "אנשים יכולים לבדוק את הגישות שלהם על שיטות זיוף שונות במדד אובייקטיבי".
במילים אחרות, בודקים יכולים להשתמש במבחן המדד כדי לראות עד כמה תוכנות זיהוי שונות מדויקות בסימון נכון של מספר סוגים של סרטונים שעברו מניפולציות, כולל סרטונים מזויפים עמוקים וסרטונים שנוצרו עם תוכנות כמוFace2Faceושל מיקרוסופטבתולי. עד כה, התוצאות מבטיחות
לדוגמה, לרשת Xception (FaceForensics++), כלי הזיהוי שניסנר עזר בפיתוח, הייתה אחוז הצלחה כולל של 78.3 אחוזים בזיהוי, עם שיעור הצלחה של 88.2 אחוזים במיוחד עם זיופים עמוקים. בעוד שהוא הודה שעדיין יש הרבה מקום לשפר, ניסנר אמר לי, "זה גם נותן לך מדד עד כמה הזיופים טובים."
יש גם את סוגיית המודעות בקרב משתמשי האינטרנט: רובם כנראה לא שמעו על זיופים עמוקים, ופחות יודעים על דרכים לזהות אותם.מדברים עם טרנדים דיגיטלייםבשנת 2018, ניסנר הציע תיקון: "באופן אידיאלי, המטרה תהיה לשלב את אלגוריתמי הבינה המלאכותית שלנו בדפדפן או בתוסף של מדיה חברתית. בעיקרו של דבר, האלגוריתם [ירוץ] ברקע, ואם הוא מזהה תמונה או סרטון מנופלים זה ייתן אזהרה למשתמש".
אם ניתן להפיץ תוכנה כזו ברבים - ואם מפתחי כלי זיהוי יוכלו לעמוד בקצב של התפתחות סרטוני ה-deepfake - נראה שיש תקווה לפחות לתת למשתמשים את הכלים לשמור על השכלה ולמנוע התפשטות ויראלית של deepfake.
עד כמה אנחנו צריכים להיות מודאגים?
עם זאת, כמה מומחים ואנשי תקשורת חושבים שהדאגה סביב זיופים עמוקים מוגזמת, ושהדאגה צריכה להיות מתעמולה וחדשות כוזבות או מטעות מכל הסוגים, לא רק וידאו.
ב-The Verge,ראסל ברנדום מעלה נקודה בולטתשהשימוש בזיופים עמוקים כתעמולה פוליטית לא הצליח ביחס לתשומת הלב והדאגה שהוא קיבל בשנה האחרונה. שים לב שסביר להניח שסרטונים אלה יסמנו מסננים כמו אלה שצוינו לעיל, הטרולים מאחורי מסעות הפרסום האלה זיהו שיצירת כתבות חדשות מזויפות תהיה יעילה יותר בהתמודדות עם האמונות הקיימות מראש של אלו שממוקדים.
ברנדום מצביע עלטענה שקרית משנת 2016 המופצת בהרחבהשהאפיפיור פרנציסקוס תמך בדונלד טראמפ כדוגמה.
"זה היה שותף נרחב ושקרי לחלוטין, הדוגמה המושלמת לחדשות מזויפות משתוללות. אבל הסיפור המזויף לא הציע שום ראיה אמיתית לטענה, רק כתבה שטחית באתר אינטרנט לא ידוע אחרת. זה לא היה מזיק כי הוא היה משכנע; אנשים רק רצו להאמין בזה, אם אתה כבר חושב שדונלד טראמפ מוביל את אמריקה לדרך של ישו, לא יידרש הרבה כדי לשכנע אותך שגם האפיפיור חושב כך. סרטון דוקטור של נאום האפיפיור כנראה לא ישנה את דעתך."
מפתח אלן זוקונישותף לדעה שכאשר מדובר בחדשות מטעות או מזויפות, זיופים עמוקים אפילו אינם נחוצים.
באמצעות Pizzagate כדוגמה, Zucconi ממחיש כמה קל לאנשים חסרי רמה מסוימת של חינוך אינטרנטי "להיטרף על ידי אנשים שעושים תעמולה ותעמולה לא צריך להיות כל כך מפותל".
בהד לנקודות של ברנדום, Zucconi מציין שאם אדם עשוי להאמין לסרטון מזויף עמוק, הוא כבר חשוף לצורות אחרות של מידע כוזב. "זה הלך רוח ולא סרטון עצמו", הוא אומר.
לשם כך, הוא מציין שהרבה יותר זול ופשוט להפיץ קונספירציות באמצעות פורומים וטקסטים באינטרנט: "יצירת סרטון Deepfake ריאליסטי דורש שבועות של עבודה עבור סרטון בודד. ואנחנו אפילו לא יכולים לעשות אודיו מזויף כמו שצריך עדיין. אבל יצירת סרטון בודד זה כל כך יקר שהתמורה שתהיה לך לא ממש גדולה".
Zucconi גם מדגיש כי גם קל יותר למי שמפיץ תעמולה וקנוניות להציג סרטון אמיתי מחוץ להקשר מאשר ליצור סרטון מזויף. הסרטון של פלוסי הדוקטור הוא דוגמה טובה לכך; כל מה שהיוצר היה צריך לעשות הוא פשוט להאט את מהירות הסרטון רק טיפה כדי ליצור את האפקט הרצוי, וטראמפ קנה אותו.
אותה לפחות פלטפורמת מדיה חברתית מרכזית אחת -- פייסבוק --סירב להוריד את הסרטוןרק מראה כמה קשה המאבק המסוים הזה נשאר.
"זה העידן שלאחר האמת. מה שאומר לי שאם אתה רואה סרטון, זה לא קשור אם הסרטון מזויף או לא”, הוא אומר לי. "זה קשור אם הסרטון משמש לתמיכה במשהו שהסרטון היה אמור לתמוך בו או לא."
אם כבר, הוא חושש שדיונים על זיופים עמוקים יובילו לכך שכמה אנשים טוענים שסרטון שלהם אינו אמיתי כשלמעשה הוא כן: "אני חושב שזה נותן ליותר אנשים את הסיכוי לומר, 'הסרטון הזה היה' לא נכון, זה לא הייתי אני'".
בהתחשב בכך, כפי שציינתי קודם, טראמפ כבר בחן את המים הללו על ידי התרחקות מה-גישה להוליוודקלטת, הנקודה של זוקוני מובנת היטב.
עם זאת, גם אם הדאגה לגבי סרטונים אלה עשויה להיות מוגזמת, הדאגה לגבי חוסר החינוך סביב זיופים עמוקים נותרה דאגה והיכולת של תוכנות הזיהוי לעמוד בקצב חיונית.
בתור אביב עובדיההזהיר את באזפיד בתחילת 2018, "זה לא חייב להיות מושלם - רק מספיק טוב כדי לגרום לאויב לחשוב שמשהו קרה שהוא מעורר עגמת ברכיים ותגובה פזיזה של תגמול."
וכל עוד ההשכלה הזו מפגרת והסיכוי שהסרטונים האלה יזרעו חוסר אמון נשאר, אז העבודה שנעשית על מסננים ממשיכה להיות חלק מהותי מהמאבק נגד מידע שגוי, כשמפתחי כובע לבן דוהרים להקדים את הגורמים המרושעים יותר של האינטרנט מתכוון לעורר כאוס.
מרקוס גילמר הוא עוזר עורך חדשות ה-Real-Times של Mashable בחוף המערבי, ומדווח על חדשות טובות מיקומו בסן פרנסיסקו. מרקוס, יליד אלבמה, סיים את התואר הראשון שלו בברמינגהם-סאות'רן קולג' ואת ה-MFA שלו בתקשורת מאוניברסיטת ניו אורלינס. מרקוס עבד בעבר עבור Chicagoist, The AV Club, Chicago Sun-Times ו-San Francisco Chronicle.