מומחה אבטחה טוען שאפל עומדת להכריז על כלי זיהוי תמונות שיזהו תמונות של התעללות בילדיםiOSספריות תמונות.
לאפל ישהוסר בעבראפליקציות בודדות מה-App Storeבגלל בעיות פורנוגרפיה של ילדים, אבל עכשיו אומרים שהיא עומדת להכניס מערכת זיהוי כזו לרחבה. באמצעות hashing של תמונות, מכשירי אייפון יכולים לזהות חומרי התעללות מינית בילדים (CSAM) במכשיר.
אפל לא אישרה זאת ועד כה המקור היחיד הוא מתיו גרין, קריפטוגרף ופרופסור חבר במכון ג'ונס הופקינס לאבטחת מידע.
קיבלתי אישור עצמאי ממספר אנשים שאפל משחררת מחר כלי בצד הלקוח לסריקת CSAM. זה רעיון ממש גרוע.
- מתיו גרין (@matthew_d_green)4 באוגוסט 2021
לדברי גרין, התוכנית היא בהתחלה להיות צד הלקוח - כלומר, כל הזיהוי יבוצע על ידי המשתמשאייפון. עם זאת, הוא טוען שייתכן שמדובר בתחילתו של תהליך שמוביל למעקב אחר תעבורת נתונים שנשלחת ומתקבלת מהטלפון.
"בסופו של דבר זה יכול להיות מרכיב מרכזי בהוספת מעקב למערכות הודעות מוצפנות", ממשיך גרין. "היכולת להוסיף מערכות סריקה כמו זו למערכות הודעות E2E [הצפנה מקצה לקצה] הייתה 'שאלה' מרכזית של רשויות החוק ברחבי העולם".
"סוג זה של כלי יכול להיות ברכה למציאת פורנוגרפיית ילדים בטלפונים של אנשים", אמר. "אבל תארו לעצמכם מה זה יכול לעשות בידיה של ממשלה אוטוריטרית?"
גרין שעם תלמידי ההצפנה שלו ישדווח בעברעל האופן שבו רשויות אכיפת החוק עשויות לפרוץ לאייפון. הוא ואוניברסיטת ג'ונס הופקינס גם בעברעבד עם אפלכדי לתקן באג אבטחה בהודעות.