בתקופה מאז הכריזה אפל על בטיחות הילד שלה הערכת תמונות iCloud Photos והודעות הודעות, לא חלו שינויים, אך היו הבהרות רבות מהחברה בנושא. הנה מה שאתה צריך לדעת, מעודכן ב-15 באוגוסט עם כל מה שאפל אמרה מאז השחרור.
אפל הכריזה על אחבילת כלים חדשהביום חמישי, נועד לעזור להגן על ילדים באינטרנט ולבלום את התפשטות חומרי התעללות מינית בילדים (CSAM). הוא כלל תכונות ב-iMessage, Siri וחיפוש, ומנגנון סורקiCloudתמונות עבור תמונות CSAM ידועות.
למומחי אבטחת סייבר, בטיחות מקוונת ופרטיות היו תגובות מעורבות להודעה. גם המשתמשים עשו זאת. עם זאת, רבים מהטיעונים מתעלמים בבירור עד כמה נפוץ בפועל הנוהג של סריקת מסדי נתונים של תמונות עבור CSAM. הם גם מתעלמים מהעובדה שאפל לא נוטשת את הטכנולוגיות שלה להגנה על הפרטיות.
הנה מה שאתה צריך לדעת.
תכונות הפרטיות של אפל
לוח תכונות ההגנה על ילדים של החברה כולל את סריקת תמונות iCloud שהוזכרה לעיל, כמו גם כלים ומשאבים מעודכנים בסירי ובחיפוש. זה כולל גם תכונה שנועדה לסמן תמונות לא הולמות שנשלחות באמצעות iMessage אל או מקטינים.
כפי שציינה אפל בהכרזה שלה, כל התכונות נבנו מתוך מחשבה על פרטיות. גם תכונת iMessage וגם סריקת iCloud Photo, למשל, משתמשות במודיעין במכשיר.
בנוסף, "הסורק" של iCloud Photos אינו סורק או מנתח את התמונות באייפון של משתמש. במקום זאת, הוא משווה את הגיבובים המתמטיים של CSAM ידוע לתמונות המאוחסנות ב-iCloud. אם אוסף של תמונות CSAM ידועות מאוחסן ב-iCloud, החשבון מסומן ודיווח נשלח למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).
ישנם אלמנטים במערכת כדי להבטיח שתוצאות שווא הן נדירות עד כדי גיחוך. אפל אומרת שהסיכוי לחיוב כוזב הוא אחד לטריליון לחשבון. זה בגלל "סף" האוסף הנ"ל, שאפל סירבה לפרט.
בנוסף, הסריקה פועלת רק בתמונות iCloud. תמונות המאוחסנות אך ורק במכשיר אינן נסרקות, ולא ניתן לבדוק אותן אם תמונות iCloud כבויות.
מערכת ההודעות שומרת על הפרטיות אפילו יותר. זה חל רק על חשבונות השייכים לילדים, והוא ביטול הסכמה, לא ביטול הסכמה. יתר על כן, הוא אינו מייצר דיווחים לגורמים חיצוניים - רק הורי הילדים מקבלים הודעה על כך שהתקבלה או נשלחה הודעה לא הולמת.
יש הבחנות קריטיות בין סריקת תמונות iCloud לבין תכונת iMessage. בעיקרון, שניהם לגמרי לא קשורים מעבר לעובדה שהם נועדו להגן על ילדים.
- הערכת תמונות iCloud מבצעת גיבוב של תמונות מבלי לבדוק את ההקשר, ומשווה אותה לאוספי CSAM ידועים ומפיקה דוח להנפקה למנהל אוסף הגיבוב NCMEC.
- תכונת ה-iMessage של חשבון ילד משתמשת בלמידה חישובית במכשיר, אינה משווה תמונות לבסיסי נתונים של CSAM ואינה שולחת דיווחים לאפל - רק חשבון הניהול של שיתוף המשפחה של ההורים
מתוך מחשבה על כך, בואו נסקור כמה תרחישים פוטנציאליים שמשתמשים מודאגים מהם.
המערכת של אפל נועדה להבטיח שתוצאות שגויות הן נדירות עד כדי גיחוך. אבל, מכל סיבה שהיא, בני אדם גרועים בהערכת סיכון-תגמול. כפי שכבר ציינו, אפל אומרת שהסיכויים להתאמת שווא הם אחד לטריליון בכל חשבון נתון. אחד ל-1,000,000,000,000.
במהלך חייו של אדם, יש סיכוי של 1 ל-15,000 להיפגע מברק, וזה לא פחד כללי. הסיכוי להיפגע ממטאור במהלך החיים הוא בערך 1 ל-250,000 וזה גם לא פחד יומיומי. כל הגרלת מגה-ג'קפוט נתונה היא מעל 1 ל-150,000,000 לזכייה, ומיליוני דולרים מוציאים עליה בכל יום ברחבי ארה"ב.
אחד לטריליון של אפל לחשבון הוא לא מה שאתה מכנה סיכוי גדול שחייו של מישהו ייהרסו על ידי חיובי שגוי. ואפל היא לא השופטת, המושבעים והתליין, כפי שחלק מאמינים.
במידה והחומר יזוהה, הוא יעבור בדיקה אנושית לפני שיועבר לרשויות אכיפת החוק. ואז, ורק אז, ההתאמה הפוטנציאלית תימסר לרשויות אכיפת החוק.
לאחר מכן, זה תלוי בהם להנפיק צו, שכן בתי המשפט אינם מקבלים רק התאמה חשיש כמקובלת.
ביטול נעילה כוזב באייפון שלך עם Face ID סביר להפליא מהתאמה כוזבת כאן ב-1 ל-1,000,000. התאמה גרועה של מזהה מגע סביר אפילו יותר מזה ב-1 ל-50,000, ושוב, אף אחד מהם אינו חששות גדולים של משתמשים.
בקיצור, התמונות שלך של הילדים שלך באמבטיה, או עירום שלך ב-iCloud, לא סביר מאוד ליצור התאמה כוזבת.
ניטור הודעות - או "אם אשלח עירום לבן הזוג שלי, האם אסומן?"
אם אתה מבוגר, לא תסומן אם אתה שולח תמונות עירום לבן זוג. מנגנון iMessage של אפל חל רק על חשבונות השייכים לילדים קטינים, והוא מצטרף.
גם אם זה אכן סמן תמונה שנשלחה בין שני מבוגרים שהסכימו, זה לא אומר הרבה. המערכת, כאמור, אינה מודיעה או מפיקה דוח חיצוני. במקום זאת, הוא משתמש בלמידה חישובית במכשיר כדי לזהות תמונה שעלולה להיות רגישה ולהזהיר את המשתמש לגביה.
ושוב, זה נועד רק להזהיר הורים שמשתמשים קטינים שולחים את התמונות.
מה עם תמונות של הילדים שלי באמבטיה?
דאגה זו נובעת מאי הבנה כיצד פועלת סריקת תמונות iCloud של אפל. זה לא מסתכל על תמונות בודדות בהקשר כדי לקבוע אם תמונה היא CSAM. זה רק משווה את גיבוב התמונות של תמונות המאוחסנות ב-iCloud מול מסד נתונים של CSAM ידוע שמתוחזק על ידי NCMEC.
במילים אחרות, אלא אם כן התמונות של הילדים שלך מועברות איכשהו במסד הנתונים של NCMEC, אז הן לא יושפעו ממערכת סריקת התמונות iCloud. יותר מזה, המערכת מיועדת רק לתפוס אוספים של CSAM ידועים.
לכן, גם אם תמונה בודדת הצליחה איכשהו ליצור חיובי שגוי (אירוע לא סביר, שכבר דיברנו עליו), אז המערכת עדיין לא תסמן את החשבון שלך.
מה אם מישהו ישלח לי חומר לא חוקי?
אם מישהו באמת היה מנסה להשיג אותך, סביר יותר שמישהו היה פורץ ל-iCloud שלך כי הסיסמה שהמשתמש קבע היא "1234" או שטות אחרת, וישליך את החומרים לשם. אבל, אם זה לא היה ברשת שלך, זה בר הגנה.
שוב, מערכת iCloud Photos חלה רק על אוספי תמונות המאוחסנים במערכת הצילום בענן של אפל. אם מישהו שלח לך CSAM ידוע דרך iMessage, המערכת לא תחול אלא אם כן היא נשמרה איכשהו ב-iCloud שלך.
האם מישהו יכול לפרוץ לחשבון שלך ולהעלות חבורה של CSAM ידועים לתמונות iCloud שלך? זה אפשרי מבחינה טכנית, אבל גם מאוד לא סביר אם אתה משתמש בשיטות אבטחה טובות. עם סיסמה חזקה ואימות דו-גורמי, אתה תהיה בסדר. אם איכשהו הצלחת לגרום לאויבים של אדם או ארגון לעבור את מנגנוני האבטחה הללו, סביר להניח שיש לך דאגות הרבה יותר גדולות לדאוג.
כמו כן, המערכת של אפל מאפשרת לאנשים לערער אם החשבונות שלהם מסומנים ונסגרים עבור CSAM. אם ישות מרושעת אכן הצליחה להכניס CSAM לחשבון ה-iCloud שלך, תמיד קיימת האפשרות שתוכל לסדר את הדברים.
וכן, עדיין יהיה צורך להעביר אותו לספריית התמונות שלך כדי שייסרק. ואתה תצטרך אוסף של לפחות 30 תמונות כדי שהחשבון יסומן.
חששות תקינים לפרטיות
אפילו עם תרחישים אלה מחוץ לדרך, ליברטריאנים טכנולוגיים רבים התמודדו עם מנגנוני סריקת ההודעות ו-iCloud Photo למרות הבטחותיה של אפל לפרטיות. גם להרבה מומחי קריפטוגרפיה ואבטחה יש חששות.
לדוגמה, מומחים מסוימים חוששים שקיומה של מנגנון מסוג זה עשוי להקל על ממשלות אוטוריטריות להדוף את ההתעללות. למרות שהמערכת של אפל נועדה רק לזהות CSAM, מומחים חוששים שממשלות מדכאות עלולות לאלץ את אפל לעבד אותה מחדש כדי לזהות הודעות מתנגדות או אנטי-ממשלתיות.
ישנם טיעונים תקפים לגבי "קריפ משימה" עם טכנולוגיות כגון זו. עמותת זכויות דיגיטליות בולטות, קרן החזית האלקטרונית, למשל, מציינת שמערכת דומה שנועדה במקור לזהות CSAM נועדה מחדש ליצור מסד נתונים שלתוכן "טרוריסט"..
ישנם גם טיעונים תקפים שהועלו על ידי מערכת סריקת ההודעות. למרות שהודעות מוצפנות מקצה לקצה, הלמידה המכונה במכשיר סורקת הודעות טכנית. במתכונתו הנוכחית, לא ניתן להשתמש בו לצפייה בתוכן של הודעות, וכפי שהוזכר קודם, לא נוצרים דיווחים חיצוניים מהפיצ'ר. עם זאת, התכונה יכולה ליצור מסווג שיכול לשמש באופן תיאורטי למטרות מעיקות. ה-EFF, למשל, שאל האם ניתן להתאים את התכונה לסימון תוכן LGBTQ+ במדינות שבהן הומוסקסואליות אינה חוקית.
יחד עם זאת, מדובר בכשל לוגי במדרון חלקלק, בהנחה שהמטרה הסופית היא בהכרח התרחישים הגרועים ביותר.
כל אלה דיונים טובים שיש לנהל. עם זאת, הטלת ביקורת רק על אפל והמערכות שלה בהנחה שהמקרה הגרוע ביותר מגיע היא לא הוגנת ולא מציאותית. הסיבה לכך היא שכמעט כל שירות באינטרנט כבר מזמן עשה את אותו סוג של סריקה שאפל עושה כעת עבור iCloud.
המערכת של אפל אינה חדשה
מבט סתמי של הכותרות הקשורות לאפל עשוי לגרום לחשוב שמנגנוני בטיחות הילדים של החברה הם איכשהו ייחודיים. הם לא.
כְּמוֹהגבול דווח ב-2014, גוגל סורקת את תיבות הדואר הנכנס של משתמשי Gmail לאיתור CSAM ידוע מאז 2008. חלק מהסריקות הללו אפילו הובילו למעצר של אנשים ששולחים CSAM. Google פועלת גם כדי לסמן ולהסיר CSAM מתוצאות החיפוש.
מיקרוסופט פיתחה במקור את המערכת שבה משתמש ה-NCMEC. מערכת ה-PhotoDNA, שנתרמה על ידי מיקרוסופט, משמשת לסריקת גיבוב תמונות וזיהוי CSAM גם אם תמונה שונתה. פייסבוק התחילה להשתמש בו ב-2011, וטוויטר אימצה אותו ב-2013. Dropbox משתמשת בו, וכמעט כל מאגר קבצים באינטרנט עושה זאת גם כן.
גם אפל אמרה שהיא סורקת CSAM. בשנת 2019, היא עדכנה את מדיניות הפרטיות שלה כך שהיא סורקת אחר "תוכן שעלול להיות בלתי חוקי, כולל חומר ניצול מיני של ילדים". אסיפור 2020מִןהטלגרףציינה שאפל סרקה את iCloud לאיתור תמונות של התעללות בילדים.
אפל מצאה דרך ביניים
כמו בכל מהדורה של אפל, רק 75% האמצעים של הטיעון שפויים. נראה שהאנשים שצורחים שהפרטיות מופרת איכשהו, לא כל כך מודאגים מהעובדה שטוויטר, מיקרוסופט, גוגל וכמעט כל שירות שיתוף תמונות אחר משתמשים ב-hashs האלה כבר עשור או יותר.
נראה שגם לא אכפת להם שאפל מלקטת אפס מידע על ההקשר של תמונות מה-hashing, או התראות ההודעות להורים. ספריית התמונות שלך עם 2500 תמונות של הכלב שלך, 1200 תמונות של הגינה שלך ו-250 תמונות של האדמה בגלל שלחצת בטעות על כפתור עוצמת הקול בזמן שאפליקציית המצלמה הייתה פתוחה עדיין אטומה לאפל כמו שהייתה אי פעם. ובתור מבוגר, אפל לא תסמן וגם לא יהיה אכפת לה שאתה שולח תמונות של איברי המין שלך למבוגר אחר.
הטיעונים לפיהם זה מיישר איכשהו את שדה הפרטיות עם מוצרים אחרים משתנים מאוד בהתאם לאופן שבו אתה מגדיר פרטיות באופן אישי. אפל עדיין לא משתמשת ב-Siri כדי למכור לך מוצרים על סמך מה שאתה אומר לה, אפל עדיין לא מסתכלת על מטא נתונים של דוא"ל כדי להציג לך מודעות, ואמצעים אחרים למעשה מפרי פרטיות. טיעונים דומים לפיהם אפל צריכה לעשות כל מה שהיא צריכה לעשות כדי להגן על החברה ללא קשר לעלות הם תפלים ושטויות באותה מידה.
נראה שאפל נדהמה מהתגובה. גם לאחר ההודעה המקורית לעיתונות והמסמך הלבן שדנו במערכת, היא ערכה מספר תדרוכים לעיתונות וראיונות לתקשורת בניסיון לחדד את המסר. היה ברור לנו שזה הולך להיות דלקתי, וזה היה צריך להיות גם לאפל.
והם היו צריכים להיות פרואקטיביים לגבי זה, ולא תגובתיים.
זו צריכה להיות אחריותה של אפל לספק את המידע בצורה שפויה וניתנת לעיכולמִלְכַתְחִילָהלמשהו כל כך מכריע ומלהיב כמו שזה התברר. חידודים לאחר מעשה של ההודעות היו בעיה, והם רק מגבירים את נפחם של תושבי האינטרנט שלא אכפת להם לעשות קריאה המשך בנושא ושמחים מההתייחסות הראשונית שלהם לעניין.
מחמירה עוד יותר את המצב, אפל היא רק ענקית הטכנולוגיה האחרונה שאימצה מערכת כמוה, ולא הראשונה. כמו תמיד, זה יצר את הזעם המבוסס ביותר באינטרנט מכולם.
נעשו ניסיונות הבהרה, אבל הכעס עדיין קיים
מאז פרוץ המהומה, אפל ניסתה לעשות זאתלהבהיר את המצב. עם זאת, ניסיונותיו אינם קרובים למקום בו הם צריכים להיות כדי להרגיע את המתנגדים.
התלונות הן לא רק של מבקרים חיצוניים והציבור הקורא דיווחי חדשות על המערכת, אלא גם של עובדי אפל עצמה. אערוץ Slack פנימינמצא ב-12 באוגוסט שיש להם יותר מ-800 הודעות בנושא, עם עובדים מודאגים מהאפשרות של ניצול ממשלתי.
בהתבסס על הדיווחים, "המתלוננות העיקריות" בפוסטים הללו לא היו עובדים העובדים בצוותי אבטחה או פרטיות, אם כי כמה אחרים הגנו על עמדתה של אפל בעניין.
ארֵאָיוֹןעם ראש הפרטיות של אפל, אריק נוינשוונדר, לגבי המערכת ב-10 באוגוסט, ניסה להדוף את הטיעונים על התעלפות ממשלתית. הוא התעקש שהמערכת תוכננה מלכתחילה כדי למנוע התעללות סמכותית כזו מלכתחילה, במספר דרכים.
לדוגמה, המערכת חלה רק על ארה"ב, שם הגנות התיקון הרביעי שומרות מפני חיפוש ותפיסה בלתי חוקיים. זה מונע במקביל מממשלת ארה"ב לעשות שימוש לרעה במערכת, בעוד שקיומה רק בארה"ב שולל ניצול לרעה של המערכת במדינות אחרות.
יתרה מכך, המערכת עצמה משתמשת ברשימות hash המובנות במערכת ההפעלה, שלא ניתן לעדכן מהצד של אפל ללא עדכון iOS. העדכונים למסד הנתונים משוחררים גם בקנה מידה עולמי, כלומר הוא לא יכול לכוון למשתמשים בודדים עם עדכונים מאוד ספציפיים.
המערכת גם מתייגת רק אוספים של CSAM ידועים, כך שהיא לא תשפיע רק על תמונה אחת. גם תמונות שאינן נמצאות במסד הנתונים שסופק מהמרכז הלאומי לילדים נעדרים ומנוצלים לא יתויגו, כך שיחול רק על תמונות מוכרות.
יש אפילו תהליך סקירה ידני, שבו חשבונות iCloud המסומנים כבעלי אוסף ייבדקו על ידי הצוות של אפל כדי לוודא שזו התאמה נכונה לפני מתן התראה לכל ישות חיצונית.
נוינשוונדר אומר שזה מציג הרבה חישוקים שאפל תצטרך לעבור כדי לאפשר מצב מעקב ממשלתי היפותטי.
הוא גם אומר שעדיין יש בחירה של המשתמש, מכיוון שהם עדיין יכולים לבחור שלא להשתמש בתמונות iCloud. אם iCloud Photos מושבת, "אף חלק מהמערכת אינו פונקציונלי."
ב-13 באוגוסט פרסמה אפל אמסמך חדשלנסות ולהסביר את המערכת עוד יותר, כולל הבטחות נוספות למשתמשיה ולמבקרים מודאגים. הבטחות אלו כוללות שהמערכת תהיה ניתנת לביקורת על ידי צדדים שלישיים, כולל חוקרי אבטחה וקבוצות ללא מטרות רווח.
זה יכלול פרסום Knowledge Base עם ה-hash הבסיס של מסד הנתונים המוצפן של CSAM hash, מה שיאפשר להשוות את ה-hash של מסד הנתונים במכשירי המשתמש מול ה-hash הבסיסי הצפוי.
אפל גם משתפת פעולה עם לפחות שני ארגוני בטיחות ילדים כדי ליצור את מסד הנתונים של CSAM hash. יש הבטחה ששני הארגונים אינם בסמכות השיפוט של אותה ממשלה.
במקרה שהממשלות המפקחות על הארגונים שיתפו פעולה, זה גם יהיה מוגן מפני, אפל מתעקשת, שכן צוות הביקורת האנושית יבין שחשבון מסומן מסיבות אחרות מלבד CSAM.
באותו יום, סמנכ"ל הנדסת תוכנה של אפלקרייג פדריגידיבר על המחלוקת, והודה שיש תקלה בתקשורת.
"אנחנו מאחלים שזה יצא קצת יותר ברור לכולם כי אנחנו מרגישים מאוד חיוביים וחזקים לגבי מה שאנחנו עושים, ואנחנו יכולים לראות שזה לא הובן באופן נרחב", אמר פדריגי.
"אני מודה לך, במבט לאחור, הצגת שתי התכונות הללו בו-זמנית הייתה מתכון לסוג כזה של בלבול", המשיך. "זה באמת ברור שהרבה הודעות התערבבו די גרוע. אני כן מאמין שהסאונדביט שיצא מוקדם היה, 'אלוהים אדירים, אפל סורקת את הטלפון שלי לאיתור תמונות'. זה לא מה שקורה".
פדריגי גם התעקש שלא היה לחץ של כוחות חיצוניים לשחרר את התכונה. "לא, זה באמת הסתכם ב... הבנו את זה", אמר. "רצינו לעשות משהו אבל לא היינו מוכנים לפרוס פתרון שיכלול סריקה של כל נתוני הלקוחות".
עניין של אמון
עם חוסר השקיפות הראשוני של אפל, מגיע התהייה הברורה לגבי האם אפל עושה את מה שהיא אומרת שהיא עושה, איך היא אומרת שהיא עושה את זה.
אין תשובה טובה לשאלה הזו. כל אדם מקבל החלטות בכל יום לגבי איזה מותג לסמוך על, על סמך הקריטריונים שלנו. אם הקריטריונים שלך הם איכשהו שאפל עכשיו גרועה יותר מענקיות הטכנולוגיה האחרות שעושות את זה יותר זמן, או שהחשש הוא שאפל עלולה לאפשר לאכיפת החוק לזמן את רשומות ה-iCloud שלך אם יש בה משהו לא חוקי כמו שהם עשו מאז iCloud הושק, אז אולי הגיע הזמן לעשות סוף סוף את מהלך הפלטפורמה הזה שאתה כנראה מאיים לעשות כבר 15 שנה או יותר.
ואם תלך, אתה צריך לקבל ש-ISP שלך יספק את הנתונים שלך בשמחה למי שיבקש אותם, לרוב. ובנוגע לחומרה, שאר ספקי מערכת ההפעלה עשו זאת, או גרסאות פולשניות יותר שלו, במשך זמן רב יותר. וכן, לכל הספקים האחרים יש בעיות פרטיות עמוקות הרבה יותר עבור המשתמשים בפעילות היומיומית.
תמיד יש קו דק בין ביטחון לחופש, ופתרון מושלם לא קיים. כמו כן, ניתן לטעון, שהפתרון נוגע יותר לאחריות של אפל מכל דבר אחר מכיוון שהיא לא רודפת באופן יזום את CSAM לפי הקשר - אבל אם היא הייתה עושה את זה, היא למעשה הייתה עושה את הפרת הפרטיות שכמה אנשים צועקים עליה עכשיו, מכיוון שזה יכיר תמונות לפי הקשר ותוכן.
בעוד שפרטיות היא זכות אדם בסיסית, כל טכנולוגיה שמרסנת את התפשטות CSAM היא גם טובה מטבעה. אפל הצליחה לפתח מערכת שפועלת לקראת המטרה האחרונה מבלי לסכן משמעותית את פרטיותו של האדם הממוצע.
כדאי להתייחס לחששות חלקלקים לגבי היעלמות הפרטיות המקוונת. עם זאת, השיחות הללו צריכות לכלול את כל השחקנים על המגרש - כולל אלו שמפרים בצורה ברורה יותר את פרטיות המשתמשים שלהם על בסיס יומיומי.
עדכון 17:23 ET יום שישי, 6 באוגוסטהובהר ששיעור התאמת שווא של אפל לטריליון הוא לכל חשבון, לא לכל תמונה, ומעודכן עם הטבעה של הגרסה של יום שישי אחר הצהריים של המדריך הטכני של אפל.
עדכון 16:32 ET יום ראשון, 15 באוגוסטעודכן בפרטים על ניסיונותיה של אפל להבהיר את המערכת לציבור, כולל ראיונות עם קרייג פדריגי וראש הפרטיות אריק נוינשוונדר.
מנגנון זיהוי ה-CSAM של אפלעַל יְדֵימייק וורהלהעל Scribd