כלב שמירה על בטיחות ילדים מאשים את אפל בהסתרת דמויות CSAM אמיתיות

ארגון להגנה על ילדים אומר שהוא מצא יותר מקרים של תמונות התעללות בפלטפורמות של אפל בבריטניה מאשר אפל דיווחה בעולם.

בשנת 2022, אפל נטשה את תוכניותיה לאיתור חומרי התעללות מינית בילדים (CSAM), בעקבות האשמות שבסופו של דבר הוא ישמש למעקב אחר כל המשתמשים. החברה עברה לסט של תכונות שהיא מכנה תקשורת בטיחות, וזה מהמטשטש תמונות עירוםנשלח לילדים.

לְפִיהגרדיאןהעיתון, האגודה הלאומית של בריטניה למניעת אכזריות לילדים (NSPCC) אומרת שאפל כןספירה נמוכה מאודתקריות של CSAM בשירותים כגוןiCloud,FaceTimeוiMessage. כל חברות הטכנולוגיה בארה"ב נדרשות לדווח על מקרים שזוהו של CSAM למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC), ובשנת 2023, אפל שלחה 267 דיווחים.

דיווחים אלה התיימרו להיות עבור זיהוי CSAM ברחבי העולם. אבל ה-NSPCC של בריטניה מצא באופן עצמאי שאפל הייתה מעורבת ב-337 עבירות בין אפריל 2022 למרץ 2023 - באנגליה ובוויילס בלבד.

"יש אי התאמה מדאיגה בין מספר עבירות התמונה של התעללות בילדים בבריטניה המתרחשים בשירותי אפל לבין המספר הכמעט זניח של דיווחים גלובליים על תוכן התעללות שהם מעבירים לרשויות", אמר ריצ'רד קולארד, ראש מדיניות בטיחות ילדים מקוונת ב-NSPCC. . "אפל עומדת בבירור מאחורי רבים מעמיתיהם בהתמודדות עם התעללות מינית בילדים, כאשר כל חברות הטכנולוגיה צריכות להשקיע בבטיחות ולהתכונן לקראת השקת חוק הבטיחות המקוון בבריטניה".

בהשוואה לאפל, גוגל דיווחה על למעלה מ-1,470,958 מקרים בשנת 2023. באותה תקופה, Meta דיווחה על 17,838,422 מקרים בפייסבוק, ו-11,430,007 באינסטגרם.

אפל אינה מסוגלת לראות את התוכן של משתמשי iMessages, מכיוון שמדובר בשירות מוצפן. אבל ה-NCMEC מציין שגם WhatsApp של Meta מוצפן, ובכל זאת Meta דיווחה על כ-1,389,618 מקרים חשודים ב-CSAM בשנת 2023.

בתגובה להאשמות, על פי הדיווחים אפל התייחסההגרדיאןרק להצהרות הקודמות שלה לגבי פרטיות המשתמש הכוללת.

לפי הדיווחים, כמה מומחים להתעללות בילדים מודאגים מתמונות CSAM שנוצרו על ידי AI. הקרובApple Intelligenceלא תיצור תמונות פוטוריאליסטיות.