אפל פרסמה תגובה לביקורת על הפרטיות על החדש שלהiCloudתמונות תכונה של סריקה לאיתור תמונות של התעללות בילדים, ואמרה שהיא "תסרב" ללחצים ממשלתיים להפר את הפרטיות.
של אפלחבילת כליםשנועד להגן על ילדים גרם לתגובות מעורבות של מומחי אבטחה ופרטיות, עם חלקםבחירה בטעות לתבועשאפל מוותרת על עמדת הפרטיות שלה. כעת אפל פרסמה הפרכה בצורה של מסמך שאלות נפוצות.
"באפל, המטרה שלנו היא ליצור טכנולוגיה שמעצימה אנשים ומעשירה את חייהם - תוך שהיא עוזרת להם להישאר בטוחים", אומרהמסמך המלא. "אנחנו רוצים להגן על ילדים מפני טורפים המשתמשים בכלי תקשורת כדי לגייס ולנצל אותם, ולהגביל את התפשטות החומרים להתעללות מינית בילדים (CSAM)."
"מאז שהכרזנו על תכונות אלו, מחזיקי עניין רבים, כולל ארגוני פרטיות וארגוני בטיחות ילדים, הביעו את תמיכתם בפתרון החדש הזה", הוא ממשיך, "וחלקם הגיעו עם שאלות".
"מהם ההבדלים בין בטיחות תקשורת בהודעות לבין זיהוי CSAM בתמונות iCloud?" זה שואל. "שתי התכונות הללו אינן זהות ואינן משתמשות באותה טכנולוגיה."
אפל מדגישה שהפיצ'רים החדשים ב-Messages "נועדו לתת להורים... כלים נוספים שיעזרו להגן על ילדיהם". תמונות שנשלחות או מתקבלות באמצעות הודעות מנותחות במכשיר "ולכן [התכונה] אינה משנה את הבטחות הפרטיות של הודעות."
זיהוי CSAM ב-iCloud Photos אינו שולח מידע לאפל על "כל תמונות מלבד אלו התואמות לתמונות CSAM ידועות".
חלק גדול מהמסמך מפרט מהAppleInsider פרץ ביום שישי. עם זאת, ישנן כמה נקודות מפורשות שלא היו קודם לכן.
ראשית, דאגה מצד מומחי פרטיות ואבטחה הייתה שסריקה זו של תמונות במכשיר יכולה להתרחב בקלות לטובת ממשלות סמכותיות הדורשות מאפל להרחיב את מה שהיא מחפשת.
"אפל תסרב לכל דרישה כזו", נכתב במסמך השאלות הנפוצות. "התמודדנו עם דרישות לבנות ולפרוס שינויים בצו הממשלתי, אשר פוגעים בפרטיות המשתמשים, וסירבנו בתוקף לדרישות הללו. נמשיך לסרב להן בעתיד".
"תנו לנו להיות ברורים", הוא ממשיך, "טכנולוגיה זו מוגבלת לאיתור CSAM המאוחסן ב-iCloud ואנחנו לא נעתר לבקשת ממשלה להרחיב אותה".
הפרסום החדש של אפל בנושא מגיע לאחר אנשלח מכתב פתוח, מבקש מהחברה לשקול מחדש את התכונות החדשות שלה.
שנית, תוך כדיAppleInsiderאמרו זאת בעבר בהתבסס על פרשנות מאפל, החברה הבהירה בצורה לא ברורה כי התכונה אינה פועלת כאשר iCloud Photos כבוי.