קבוצת בטיחות ילדים דחפה את אפל מדוע תכונת זיהוי ה-CSAM שהוכרזה ננטשה, והחברה נתנה את התגובה המפורטת ביותר שלה עד כה מדוע היא חזרה בה מתוכניותיה.
חומר התעללות מינית בילדים הוא דאגה קשה מתמשכת של אפלניסה להתייחסעם במכשיר וiCloudכלי זיהוי. כלים אלה שנויים במחלוקת היובסופו של דבר ננטשבדצמבר 2022, והותיר מחלוקת נוספת בעקבותיה.
קבוצת בטיחות ילדים הידועה בשם Heat Initiative אמרה לאפל שהיא תארגן קמפיין נגד הבחירה לנטוש את זיהוי CSAM, בתקווה לאלץ אותה להציע כלים כאלה. אפל הגיבה בפירוט, וחוטינשלחה התגובה ופירטה את תוכנהדוח.
התגובה מתמקדת בבטיחות הצרכן ובפרטיות כסיבה של אפל לעבור לסט תכונות שנקראבטיחות תקשורת. הניסיון למצוא דרך לגשת למידע המוצפן בדרך כלל נוגד את עמדת הפרטיות והאבטחה הרחבה יותר של אפל - עמדה שממשיכהלהרגיז את מעצמות העולם.
"חומר של התעללות מינית בילדים הוא מתועב ואנו מחויבים לשבור את שרשרת הכפייה וההשפעה שגורמת לילדים להיות רגישים לכך", כתב אריק נוינשוונדר, מנהל פרטיות המשתמש ובטיחות הילדים של אפל.
"סריקת נתוני iCloud המאוחסנים באופן פרטי של כל משתמש תיצור וקטורי איומים חדשים שגנבי נתונים יוכלו למצוא ולנצל", המשיך נוינשוונדר. "זה גם יחדיר את הפוטנציאל למדרון חלקלק של השלכות לא מתוכננות. סריקה אחר סוג אחד של תוכן, למשל, פותחת את הדלת למעקב בכמות גדולה ויכולה ליצור רצון לחפש מערכות הודעות מוצפנות אחרות על פני סוגי תוכן".
"החלטנו לא להמשיך עם ההצעה לגישת שרת-לקוח היברידי לזיהוי CSAM עבור תמונות iCloud מלפני כמה שנים", הוא סיים. "הגענו למסקנה שלא ניתן ליישם באופן מעשי מבלי לסכן בסופו של דבר את האבטחה והפרטיות של המשתמשים שלנו."
נוינשוונדר הגיבה לבקשתה של שרה גרדנר, מנהיגת יוזמת החום. גרדנר שאל מדוע אפל נסוגה מתוכנית הזיהוי של CSAM במכשיר.
"אנחנו מאמינים בתוקף שהפתרון שחשפת לא רק מיקם את אפל כמובילה עולמית בפרטיות משתמשים אלא גם הבטיח למגר מיליוני תמונות וסרטונים של התעללות מינית בילדים מ-iCloud", כתב גרדנר. "אני חלק מיוזמה מתפתחת המערבת מומחי בטיחות ילדים ותומכים מודאגים שמתכוונים לתקשר איתך ועם החברה שלך, אפל, על העיכוב המתמשך שלך ביישום טכנולוגיה קריטית."
"התעללות מינית בילדים היא נושא קשה שאף אחד לא רוצה לדבר עליו, ובגלל זה הוא מושתק ונשאר מאחור", הוסיף גרדנר, "אנחנו כאן כדי לוודא שזה לא יקרה".
במקום לנקוט בגישה שתפר את אמון המשתמשים ותהפוך את אפל למתווך לעיבוד דוחות, החברה רוצה לעזור לנתב קורבנות למשאבים ולאכיפת החוק. ממשקי API למפתחים שבהם אפליקציות כמו Discord יכולות להשתמש יעזרו לחנך את המשתמשים ולהפנות אותם לדווח על עבריינים.
אפל לא "סורקת" תמונות משתמשים המאוחסנות במכשיר או ב-iCloud בשום אופן. ניתן להפעיל את תכונת בטיחות התקשורת עבור חשבונות ילדים, אך לא תודיע להורים כאשר מתגלה עירום בצ'אטים.
התכונה מתרחבת למבוגרים בiOS 17, מה שיאפשר למשתמשים לעשות זאתלסנן תמונות עירום לא רצויותמִןiMessage. אפל מקווה להרחיב את התכונות הללו לתחומים נוספים בעתיד.