אפל לוקחת רשמית על טורפי ילדיםתכונות בטיחות חדשותלאייפון ולאייפד.
סורקים חומרי התעללות מינית בילדים (CSAM), שנשמע כמו דבר טוב. אבל יש לו כמה מומחי פרטיות מודאגים.
אז איך זה עובד? התכונה, זמינה ב-iOS 15ו- iPadOS 15 מאוחר יותר השנה, משתמש בטכנולוגיה קניינית חדשה בשם NeuralHash כדי לזהות תמונות CSAM ידועות.
לפני שהתמונה מאוחסנת ב-iCloud Photos, היא עוברת תהליך התאמה במכשיר מול גיבוב CSAM ספציפי.
לאחר מכן היא משתמשת בטכנולוגיה הנקראת "שיתוף סודי בסף", שאינה מאפשרת לאפל לפרש תמונה אלא אם כן החשבון הקשור חצה סף של תוכן CSAM.
לאחר מכן, אפל יכולה לדווח על כל תוכן CSAM שהיא מוצאת למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).
מהירות אור ניתנת לריסוק
ראוי לציין כי יש מקום לתוצאות כוזבות. מתיו גרין, מומחה לאבטחת סייבר ופרופסור חבר באוניברסיטת ג'ונס הופקינס, פנה לטוויטר כדי להביע את חששותיו.
ייתכן שהציוץ נמחק
"להגיד שאנחנו מאוכזבים מהתוכניות של אפל זה אנדרסטייטמנט", אמרקרן הגבול האלקטרוני, בטענה ש"אפילו דלת אחורית מתועדת ביסודיות, מחושבת בקפידה ובהיקף צר היא עדיין דלת אחורית".
פנינו לאפל להערה ונעדכן את הסיפור הזה כשנשמע בחזרה.
אפל אומרת שהסף שלה מספק "רמת דיוק גבוהה ביותר ומבטיח סיכוי של פחות מ-1 לטריליון אחד בשנה לסימון שגוי של חשבון נתון".
ברגע שמכשיר חוצה את הסף הזה, הדוח נבדק באופן ידני. אם אפל מוצאת התאמה, היא משביתה את חשבון המשתמש ודיווח נשלח ל-NCMEC. משתמשים שחושבים שהחשבון שלהם סומן בטעות יצטרכו להגיש ערעור כדי להחזיר אותו.
אמנם קשה למתוח ביקורת על חברה על כך שהיא רוצה לפגוע בפורנוגרפיית ילדים, אבל העובדה שלאפל יש את היכולת לסרוק תמונות של מישהובִּכלָלמדאיג. זה אפילו יותר גרוע לחשוב שאדם אמיתי עשוי להסתכל דרך תמונות פרטיות רק כדי להבין שחשבון זוהה בטעות.
זה גם אירוני שאפל, החברה שמתפארת ביוזמות הפרטיות שלה, במיוחד שלהתוויות תזונהומעקב אחר שקיפות האפליקציה, נקטה בצעד זה.
אפל מבטיחה למשתמשים ש"CSAM תוכנן מתוך מחשבה על פרטיות המשתמש", וזו הסיבה שהיא תואמת תמונה במכשירלִפנֵיזה נשלח לתמונות iCloud. אבל הם אמרו את אותו הדבר על AirTags, ובכן, התברר שאלוסיוט פרטיות.