אפל נסוגה מתכונות CSAM, דוחה את ההשקה

בעקבות ביקורת נרחבת, אפל הודיעה שהיא לא תשיק את תכונות ההגנה על ילדים שלה כמתוכנן, ובמקום זאת "ייקח זמן נוסף" להתייעץ.

במייל שנשלח אלAppleInsiderופרסומים אחרים, אפל אומרת שהיא קיבלה את ההחלטה לדחות את התכונות שלה בעקבות התגובה להכרזה המקורית שלה.

"בחודש שעבר הכרזנו על תוכניות לתכונות שנועדו לסייע בהגנה על ילדים מפני טורפים המשתמשים בכלי תקשורת כדי לגייס ולנצל אותם, ולהגביל את התפשטות החומרים להתעללות מינית בילדים", אמרה אפל בהצהרה.

"בהתבסס על משוב מלקוחות, קבוצות הסברה, חוקרים ואחרים", הוא ממשיך, "החלטנו להקדיש זמן נוסף במהלך החודשים הקרובים כדי לאסוף מידע ולבצע שיפורים לפני שחרור תכונות בטיחות ילדים חשובות מאוד".

אין פרטים נוספים על האופן שבו החברה עשויה להתייעץ כדי "לאסוף תשומות", וגם לא עם מי היא תעבוד.

תַפּוּחַהוכרז במקורתכונות ה-CSAM שלה ב-5 באוגוסט 2021, לפיהן יוצגו לראשונה מאוחר יותר ב-2021. התכונות כוללות זיהוי תמונות של התעללות מינית בילדים המאוחסנים בתמונות iCloud, ובנפרד, חסימת הודעות שעלולות להזיק שנשלחות לילדים.

שמות מומחי תעשייה ובעלי פרופיל גבוה כמו אדוארד סנודן הגיבומכתב פתוחמבקש מאפל לא ליישם את התכונות הללו. ההתנגדות היא שנראה כי ניתן להשתמש בתכונות אלו למעקב.

AppleInsiderהוציא אמאמר הסבר, המכסה גם את מה שאפל תכננה בפועל, וגם איך זה נתפס כבעיה. ואז אפלפרסם הבהרהבצורה של מסמך המפרט מה היו כוונותיו, ומתאר בהרחבה כיצד התכונות אמורות לפעול.

עם זאת, התלונות, הן מודיעות והן לא, נמשכו. של אפלקרייג פדריגיבסופו של דבר אמר את זה בפומביאפל טעתה בהערכהכיצד הכריזה על התכונות החדשות.

"אנחנו מאחלים שזה יצא קצת יותר ברור לכולם כי אנחנו מרגישים מאוד חיוביים וחזקים לגבי מה שאנחנו עושים, ואנחנו יכולים לראות שזה לא הובן באופן נרחב", אמר פדריגי.

"אני מודה לך, במבט לאחור, הצגת שתי התכונות הללו בו-זמנית הייתה מתכון לסוג כזה של בלבול", המשיך. "זה באמת ברור שהרבה הודעות התערבבו די גרוע. אני כן מאמין שהסאונדביט שיצא מוקדם היה, 'אלוהים אדירים, אפל סורקת את הטלפון שלי לאיתור תמונות'. זה לא מה שקורה".