רמאים ניצלוזיוף עמוקטכנולוגיה להתחזות למועמדים לעבודה במהלך ראיונות לתפקידים מרוחקים, על פי ה-FBI.
הסוכנות ראתה לאחרונה עלייה במספר התלונות על ההונאה, אמר ה-FBI בייעוץ ציבוריביום שלישי. רמאים השתמשו גם בזיופים עמוקים וגם במידע מזהה אישי שנגנב מקורבנות כדי לרמות מעסיקים לשכור אותם לעבודות מרוחקות.
זיופים עמוקיםכרוך בשימוש בתוכנות המופעלות על ידי AI כדי ליצור מדיה מציאותית אך מזויפת של אדם. בתחום הווידאו, ניתן להשתמש בטכנולוגיה כדי להחליף פנים של ידוען על גופו של מישהו אחר. בחזית האודיו, התוכניות יכולותשיבוטקולו של אדם, אשר לאחר מכן ניתן לתמרן כדי לומר מה שתרצה.
הטכנולוגיה כבר נמצאת בשימוש בסרטוני YouTube כדיאפקט משעשע. עם זאת, הייעוץ של ה-FBI מראה שזיופים עמוקים מזינים גם תוכניות לגניבת זהות. "תלונות מדווחות על שימוש בזיוף קולי, או פוטנציאל לזיופים עמוקים, במהלך ראיונות מקוונים של המועמדים הפוטנציאליים", אומר ה-FBI.
מהירות אור ניתנת לריסוק
הרמאים השתמשו בטכנולוגיה כדי להגיש מועמדות לעבודות מרוחקות או לעבודה מהבית מחברות IT. ה-FBI לא קבע בבירור מה המטרה הסופית של הרמאים. אבל הסוכנות ציינה, "חלק מהתפקידים המדווחים כוללים גישה ל-PII של לקוחות (מידע מזהה אישי), נתונים פיננסיים, מאגרי מידע ארגוניים ו/או מידע קנייני".
מידע כזה יכול לעזור לרמאים לגנוב פרטים יקרי ערך מחברות ולבצע הונאות זהות אחרות. אבל בכמה חדשות טובות, ה-FBI אומר שיש דרך שמעסיקים יכולים לזהות את הזיוף העמוק. כדי להבטיח את המשרות, רמאים השתתפו בראיונות וידאו עם מעסיקים פוטנציאליים. עם זאת, ה-FBI ציין כי הטכנולוגיה מבוססת AI עדיין יכולה להראות פגמים כאשר הרמאי מדבר.
"הפעולות ותנועת השפתיים של האדם שנראה מרואיין במצלמה אינם מתואמים לחלוטין עם האודיו של האדם המדבר", אמרו בסוכנות. "לפעמים, פעולות כמו שיעול, התעטשות או פעולות שמיעה אחרות אינן מתואמות למה שמוצג חזותית."