דיווחים חדשים מתעדים מספר רב של חומרי התעללות מינית בילדים אמיתיים ובינה מלאכותית המשותפים באינטרנט. קרדיט: dem10 / iStock / Getty Images Plus באמצעות Getty Images
AI גנרטיבימחמירה את הבעיה של חומרי התעללות מינית בילדים מקוונים (CSAM), כפי שמדווחים כלבי שמירה על אריבוי של תוכן מזויף עמוקמציג דימויים של קורבנות אמיתיים.
פורסם על ידי בריטניהInternet Watch Foundation (IWF), הדו"ח מתעד עלייה משמעותית בתמונות שהשתנו דיגיטלית או סינתטיות לחלוטין המציגות ילדים בתרחישים מפורשים, כאשר פורום אחד חולק 3,512 תמונות וסרטונים על פני תקופה של 30 יום. רובם היו בנות צעירות. עבריינים תועדו גם כשהם חולקים עצות ואפילו מודלים של בינה מלאכותית שניזונו מתמונות אמיתיות זה עם זה.
"ללא בקרות מתאימות, כלי AI גנרטיביים מספקים מגרש משחקים לטורפים מקוונים לממש את הפנטזיות הכי מעוותות ומחוללות שלהם", כתבה מנכ"לית IWF, סוזי הרגריבס OBE. "גם עכשיו, ה-IWF מתחיל לראות יותר חומר מסוג זה משותף ונמכר באתרים מסחריים של התעללות מינית בילדים באינטרנט".
על פי מחקר תמונת המצב, חלה עלייה של 17 אחוז ב-CSAM מקוון שעבר שינוי בינה מלאכותית מאז סתיו 2023, כמו גם עלייה מדהימה בחומרים המציגים מעשים מיניים קיצוניים ומפורשים. החומרים כוללים פורנוגרפיה למבוגרים ששונתה כדי להראות את פניו של ילד, כמו גם תוכן קיים של התעללות מינית בילדים שנערך דיגיטלית עם דמותו של ילד אחר למעלה.
"הדוח גם מדגיש עד כמה הטכנולוגיה משתפרת ביכולתה לייצר סרטוני AI סינתטיים מלאים של CSAM", כותב ה-IWF. "למרות שסוגי הסרטונים האלה עדיין לא מתוחכמים מספיק כדי לעבור לסרטונים אמיתיים של התעללות מינית בילדים, אנליסטים אומרים שזה ה'גרוע' ביותר שסרטון סינתטי מלא יהיה אי פעם. ההתקדמות ב-AI תציג בקרוב יותר סרטונים כמו חיים באותו אופן. שתמונות סטילס הפכו לפוטו-ריאליסטיות".
בסקירה של 12,000 AI חדשים שנוצרותמונותעל פי אנליסטים של IWF, שפורסם בפורום אינטרנט אפל במשך תקופה של חודש אחד, 90 אחוז היו מציאותיים מספיק כדי להיות מוערכים על פי החוקים הקיימים עבור CSAM אמיתי.
מהירות אור ניתנת לריסוק
דו"ח אחר של כלב השמירה בבריטניה, שפורסם ב-אַפּוֹטרוֹפּוֹסהַיוֹם,טוען שאפל כןחסר מאוד בדיווחכמות חומרי ההתעללות המינית בילדים המשותפים באמצעות מוצריה, מה שמעורר דאגה לגבי האופן שבו החברה תנהל תוכן שנעשה עם AI מחולל. במסגרת החקירה שלה, האגודה הלאומית למניעת אכזריות לילדים (NSPCC) השוותה מספרים רשמיים שפרסמה אפל למספרים שנאספו באמצעות בקשות לחופש מידע.
בעוד אפל שלחה 267 דיווחים עולמיים על CSAM למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC) בשנת 2023, ה-NSPCC טוען שהחברה הייתה מעורבת ב-337 עבירות של תמונות התעללות בילדים רק באנגליה ובוויילס בלבד - והמספרים הללו היו מעורבים רק לתקופה שבין אפריל 2022 למרץ 2023.
אפל סירבהשל השומרבקשה להערה, המפנה את הפרסום להחלטה קודמת של החברה שלא לסרוק ספריות תמונות של iCloud עבור CSAM, במאמץ לתת עדיפות לאבטחה ופרטיות המשתמש. Mashable פנה גם לאפל, ותעדכן מאמר זה אם יגיבו.
על פי החוק האמריקאי, חברות טכנולוגיה מבוססות ארה"ב נדרשות לדווח על מקרים של CSAM ל-NCMEC. גוגל דיווחה על יותר מ-1.47 מיליון מקרים ל-NCMEC בשנת 2023. פייסבוק, בדוגמה אחרת, הסירה14.4 מיליון חלקי תוכןבגין ניצול מיני של ילדים בין ינואר למרץ השנה. במהלך חמש השנים האחרונות, החברה דיווחה גם על ירידה משמעותית במספר הפוסטים שדווחו על עירום והתעללות בילדים, אך כלבי שמירהלהישאר זהיר.
ניצול ילדים באינטרנט הואלשמצה קשה להילחם, כאשר טורפים ילדים מנצלים לעתים קרובות פלטפורמות של מדיה חברתית, ופרצות התנהלותם, כדי להמשיך לעסוק בקטינים באינטרנט. כעת עם תוספת הכוח של AI מחולל בידי שחקנים גרועים, הקרב רק הולך ומתעצם.
קרא עוד מהדיווח של Mashable על ההשפעות של תמונות סינתטיות ללא הסכמה:
קורבנות של זיופים עמוקים ללא הסכמה מתחמשים בחוק זכויות יוצרים כדי להילחם בהפצת התוכן
כיצד למנוע מהתלמידים לעשות זיופים עמוקים מפורשים אחד של השני
אם שיתפו לך תמונות אינטימיות ללא הסכמתך, התקשר למוקד 24/7 של יוזמת זכויות האזרח של 24/7 לתמיכה חינמית וחסויה. אתר CCRI כולל גםמידע מועילוכן רשימה שלמשאבים בינלאומיים.
צ'ייס הצטרף לצוות Social Good של Mashable בשנת 2020, וכיסה סיפורים מקוונים על אקטיביזם דיגיטלי, צדק אקלימי, נגישות וייצוג תקשורתי. עבודתה נוגעת גם לאופן שבו שיחות אלו באות לידי ביטוי בפוליטיקה, בתרבות פופולרית ובפאנדום. לפעמים היא מאוד מצחיקה.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.