ראש הפרטיות של אפל, Erik Neuenschwander, פירט כמה מהתחזיות המובנות במערכת הסריקה CSAM של החברה שמונעות ממנה להשתמש למטרות אחרות - כולל הבהרת שהמערכת לא מבצעת hashing אם iCloud Photos כבוי.
מערכת זיהוי ה-CSAM של החברה, שהוכרזה עם כלי בטיחות ילדים חדשים אחרים, עוררה מחלוקת. בתגובה, אפל הציעה פרטים רבים על האופן שבו היא יכולה לסרוק CSAM מבלי לסכן את פרטיות המשתמש.
בראיוןעִםTechCrunch, ראש הפרטיות של אפל, אריק נוינשוונדר, אמר שהמערכת תוכננה מלכתחילה כדי למנוע התערבות ממשלתית וניצול לרעה.
ראשית, המערכת חלה רק בארה"ב, שם התיקון הרביעי כבר מגנהלְהִתְגוֹנֵן מִפְנֵיחיפוש ותפיסה בלתי חוקיים.
"ובכן ראשית, זה השקה רק עבור חשבונות ארה"ב, iCloud, ולכן נראה שההיפותטיות מעלות מדינות גנריות או מדינות אחרות שאינן ארה"ב כשהן מדברות בצורה כזו", אמר נוינשוונדר "ולכן נראה שזה המקרה שאנשים מסכימים שהחוק האמריקאי לא מציע יכולות מסוג זה לממשלה שלנו".
אבל גם מעבר לכך, למערכת יש מעקות בטיחות אפויים. לדוגמה, רשימת הגיבוב שהמערכת משתמשת בה כדי לתייג CSAM מובנית במערכת ההפעלה. לא ניתן לעדכן אותו מהצד של אפל ללא עדכון iOS. אפל גם חייבת לשחרר עדכונים למסד הנתונים בקנה מידה עולמי - היא לא יכולה לכוון למשתמשים בודדים עם עדכונים ספציפיים.
המערכת גם מתייגת רק אוספים של CSAM ידועים. תמונה אחת לא תפעיל שום דבר. יותר מכך, גם תמונות שאינן נמצאות במאגר המידע שסופק על ידי המרכז הלאומי לילדים נעדרים ומנוצלים לא יתויגו.
לאפל יש גם תהליך סקירה ידני. אם חשבון iCloud מסומן על אוסף של חומרי CSAM לא חוקיים, צוות אפל יבדוק את הדגל כדי לוודא שהוא אכן התאמה נכונה לפני ישות חיצונית כלשהי מקבלת התראה.
"ולכן ההיפותטי דורשת דילוג על הרבה חישוקים, כולל שאפל תשנה את התהליך הפנימי שלה כדי להפנות חומר לא חוקי, כמו CSAM ידוע ושאנחנו לא מאמינים שיש בסיס שעליו אנשים יוכלו ליצור בקשה זו בארה"ב", אמר נוינשוונדר.
בנוסף, הוסיף Neuenschwander, עדיין יש כאן בחירה של משתמשים. המערכת פועלת רק אם למשתמש מופעל תמונות iCloud. מנהל הפרטיות של אפל אמר שאם משתמש לא אוהב את המערכת, "הוא יכול לבחור לא להשתמש בתמונות iCloud". אם iCloud Photos אינו מופעל, "שום חלק מהמערכת אינו פונקציונלי."
"אם המשתמשים לא משתמשים ב-iCloud Photos, NeuralHash לא יפעל ולא יפיק שוברים. זיהוי CSAM הוא גיבוב עצבי שמשווה מול מסד נתונים של CSAM hashes הידועים שהם חלק מתמונת מערכת ההפעלה", אמר מנהל אפל. . "אף אחד מהחלק הזה, ואף אחד מהחלקים הנוספים, כולל יצירת שוברי הבטיחות או העלאת שוברים ל-iCloud Photos, לא פועל אם אינך משתמש ב-iCloud Photos."
למרות שתכונת ה-CSAM של אפל עוררה סערה ברשת, החברהמפריך את זההמערכת יכולה לשמש לכל מטרה מלבד זיהוי CSAM. אפל מצהירה בבירור שהיא תסרב לכל ניסיון ממשלתי לשנות או להשתמש במערכת למשהו אחר מלבד CSAM.