אפל משחררת חבילת תכונות על פני הפלטפורמות שלה שמטרתן להגן על ילדים באינטרנט, כולל מערכת שיכולה לזהות חומרי התעללות בילדיםiCloudתוך שמירה על פרטיות המשתמש.
ענקית הטכנולוגיה קופרטינו הכריזה ביום חמישי על תכונות חדשות לבטיחות ילדים בשלושה תחומים שלדבריה יסייעו להגן על ילדים מפני טורפים ולהגביל את התפשטות החומרים להתעללות מינית בילדים (CSAM). ההכרזה הרשמית עוקבת מקרוב אחר הדיווחים שאפל תציג לראשונה סוג של מערכת כדי לרסןCSAM על הפלטפורמות שלה.
"באפל, המטרה שלנו היא ליצור טכנולוגיה שמעצימה אנשים ומעשירה את חייהם - תוך שהיא עוזרת להם להישאר בטוחים", כתבה החברה בהודעה לעיתונות.
לדוגמה, אפל תטמיע כלים חדשים ב-Messages שיאפשרו להורים להיות מודעים יותר לגבי האופן שבו ילדיהם מתקשרים באינטרנט. החברה גם משתמשת במערכת חדשה הממנפת טכניקות הצפנה כדי לזהות אוספים של CSAM המאוחסנים בתמונות iCloud כדי לספק מידע לרשויות אכיפת החוק. אפל גם עובדת על כלי בטיחות חדשים בסירי ובחיפוש.
"ההגנה המורחבת של אפל לילדים היא משנה משחק", אמר ג'ון קלארק, מנכ"ל ונשיא המרכז הלאומי לילדים נעדרים ומנוצלים.
עם כל כך הרבה אנשים שמשתמשים במוצרי אפל, לאמצעי הבטיחות החדשים הללו יש פוטנציאל להציל חיים לילדים שמתפתים באינטרנט ושתמונותיהם הנוראיות מופצות בחומר של התעללות מינית בילדים. במרכז הלאומי לילדים נעדרים ומנוצלים אנו יודעים שניתן להילחם בפשע הזה רק אם נהיה איתנים במסירותנו להגנה על ילדים. אנחנו יכולים לעשות זאת רק בגלל ששותפי טכנולוגיה, כמו אפל, מתגברים ומודיעים על מסירותם. המציאות היא שפרטיות והגנה על ילדים יכולים להתקיים במקביל. אנו מוחאים כפיים לאפל ומצפים לעבוד יחד כדי להפוך את העולם הזה למקום בטוח יותר לילדים.
כל שלוש התכונות עברו גם אופטימיזציה לפרטיות, מה שמבטיח שאפל יכולה לספק מידע על פעילות פלילית לרשויות המתאימות מבלי לאיים על המידע הפרטי של משתמשים שומרי חוק.
הפיצ'רים החדשים יופיעו לראשונה מאוחר יותר בשנת 2021 עם עדכונים לiOS 15,iPadOS 15,macOS מונטריי, וwatchOS 8.
זיהוי CSAM בתמונות iCloud
תרשים של מערכת הסריקה CSAM. קרדיט: אפל
תכונת בטיחות הילדים החדשה והמשמעותית ביותר שאפל מתכננת להציג לראשונה מתמקדת בזיהוי CSAM בתוך חשבונות iCloud Photos.
אם אפל תזהה אוספים של CSAM המאוחסנים ב-iCloud, היא תסמן את החשבון הזה ותספק מידע ל-NCMEC, שפועל כמרכז דיווח לחומר התעללות בילדים ועובד עם רשויות אכיפת חוק ברחבי ארה"ב
אפל בעצם לא סורקת כאן תמונות. במקום זאת, הוא משתמש במודיעין במכשיר כדי להתאים את CSAM למסד נתונים ידוע של hashes שסופק על ידי NCMEC וארגונים אחרים לבטיחות ילדים. מסד נתונים זה מומר לסט בלתי קריא של hashes המאוחסנים בצורה מאובטחת במכשיר של משתמש.
השיטה בפועל של זיהוי CSAM בתמונות iCloud היא מסובכת, ומשתמשת בטכניקות הצפנה בכל שלב כדי להבטיח דיוק תוך שמירה על פרטיות למשתמש הממוצע.
אפל אומרת שחשבון מסומן יושבת לאחר תהליך בדיקה ידני כדי לוודא שהוא חיובי אמיתי. לאחר השבתת חשבון, חברת קופרטינו תשלח הודעה ל-NCMEC. למשתמשים תהיה הזדמנות לערער על סגירת חשבון אם הם מרגישים כאילו התמקדו בהם בטעות.
החברה חוזרת ומדגישה כי התכונה מזהה רק CSAM המאוחסן בתמונות iCloud - היא לא תחול על תמונות המאוחסנות אך ורק במכשיר. בנוסף, אפל טוענת שלמערכת יש שיעור שגיאות של פחות מאחד לטריליון חשבונות בשנה.
במקום סריקה מבוססת ענן, התכונה גם מדווחת רק על משתמשים שיש להם אוסף של CSAM ידוע המאוחסן ב-iCloud. חתיכה אחת של חומר פוגעני לא מספיקה כדי להפעיל אותו, מה שעוזר להפחית את שיעור התוצאות השווא.
שוב, אפל אומרת שהיא תלמד רק על תמונות התואמות ל-CSAM ידוע. זה לא סורק כל תמונה המאוחסנת ב-iCloud ולא ישיג או יציג תמונות שאינן תואמות ל-CSAM ידוע.
מערכת זיהוי CSAM תחול רק על חשבונות iCloud מבוססי ארה"ב כדי להתחיל. אפל אומרת שהיא צפויה להפיץ את המערכת בקנה מידה רחב יותר בעתיד.
בטיחות תקשורת
אחד העדכונים החדשים מתמקד בהגברת הבטיחות של ילדים המתקשרים באינטרנט באמצעות זה של אפלiMessage
לדוגמה, אפליקציית iMessage תציג כעת אזהרות לילדים ולהורים כאשר הם מקבלים או שולחים תמונות מיניות בוטה.
אם ילד מתחת לגיל 17 מקבל תמונה רגישה, היא תטושטש אוטומטית ולילד יוצגו משאבים מועילים. אפל כללה גם מנגנון שיאפשר לילדים מתחת לגיל 13 לדעת שהודעה תישלח להוריהם אם יצפו בה. ילדים בגילאי 13 עד 17 לא יהיו כפופים להודעה מהורים בעת פתיחת תמונות אלה ולא ניתן להפעיל בטיחות תקשורת בחשבונות המשמשים מבוגרים מעל גיל 18.
המערכת משתמשת בלמידה חישובית במכשיר כדי לנתח תמונות ולקבוע אם היא בעלת אופי מיני מפורש. זה תוכנן במיוחד כך שאפל לא תשיג או תקבל עותק של התמונה.
עדכוני סירי וחיפוש
בנוסף לתכונות הבטיחות של iMessage, אפל גם מרחיבה את הכלים והמשאבים שהיא מציעה ב-Siri וב-Search בכל הנוגע לבטיחות ילדים מקוונת.
לְדוּגמָה,אייפוןומשתמשי iPad יוכלו לשאול את סירי כיצד הם יכולים לדווח על CSAM או ילדים ניתנים לניצול. לאחר מכן, סירי תספק את המשאבים וההדרכה המתאימים.
Siri ו-Search מתעדכנים גם כדי להיכנס אם משתמשים מבצעים חיפושים או שאילתות עבור CSAM. כפי שמציינת אפל, "התערבויות אלו יסבירו למשתמשים שהעניין בנושא זה מזיק ובעייתי, ויספקו משאבים משותפים כדי לקבל עזרה בנושא זה".
שמירה על פרטיות המשתמש
אפל טוענת זה מכבר שהיא עושה מאמצים רבים כדי להגן על פרטיות המשתמש. החברה אפילו התמודדה עם רשויות אכיפת החוק על זכויות פרטיות המשתמשים. זו הסיבה שהכנסת מערכת שנועדה לספק מידע לרשויות אכיפת החוק מדאיגה כמה מומחי אבטחה.
סוג זה של כלי יכול להיות ברכה למציאת פורנוגרפיית ילדים בטלפונים של אנשים. אבל תארו לעצמכם מה זה יכול לעשות בידי ממשלה אוטוריטרית?https://t.co/nB8S6hmLE3
- מתיו גרין (@matthew_d_green)5 באוגוסט 2021
עם זאת, אפל טוענת כי מעקב וניצול לרעה של המערכות היו "דאגה עיקרית" בעת פיתוחן. הוא אומר שהוא עיצב כל תכונה כדי להבטיח שהפרטיות נשמרה תוך מניעת CSAM או ניצול ילדים באינטרנט.
לדוגמה, מערכת זיהוי CSAM תוכננה מלכתחילה לזהות רק CSAM - היא אינה מכילה מנגנונים לניתוח או זיהוי של כל סוג אחר של צילום. יתר על כן, הוא מזהה רק אוספים של CSAM מעל סף מסוים.
אפל אומרת שהמערכת לא פותחת את הדלת למעקב, והיא לא עושה שום דבר כדי להחליש את ההצפנה שלה. מערכת זיהוי CSAM, למשל, מנתחת רק תמונות שאינן מוצפנות מקצה לקצה.
מומחי אבטחה עדיין מודאגים מההשלכות. מת'יו גרין, פרופסור לקריפטוגרפיה באוניברסיטת ג'ונס הופקינס, מציין שה-hash מבוסס על מסד נתונים שמשתמשים לא יכולים לסקור. יותר מזה, יש פוטנציאל לניצול לרעה של hashes - כמו תמונה לא מזיקה ששיתפה hash עם CSAM ידוע.
"הרעיון שאפל היא חברת 'פרטיות' קנה להם הרבה עיתונות טובה. אבל חשוב לזכור שזו אותה חברה שלא תצפין את גיבויי ה-iCloud שלך כי ה-FBI הפעיל עליהם לחץ", כתב גרין .
רוס אנדרסון, פרופסור להנדסת אבטחה באוניברסיטת קיימברידג', כינה את המערכת "רעיון מזעזע לחלוטין" בראיוןעִםהפייננשל טיימס. הוא הוסיף שזה עלול להוביל ל"מעקב מבוזר של... הטלפונים והמחשבים הניידים שלנו".
קבוצת הזכויות הדיגיטליות The Electronic Frontier Foundation כתבה גם את אפוסט בבלוגעל התכונה, ואמרה שהיא "פותחת את הדלת להתעללות נרחבת יותר".
"כל מה שנדרש כדי להרחיב את הדלת האחורית הצרה שאפל בונה הוא הרחבה של פרמטרי למידת המכונה כדי לחפש סוגים נוספים של תוכן, או התאמה של דגלי התצורה לסריקה, לא רק של ילדים, אלא של כל אחד. זה לא מדרון חלקלק; זו מערכת בנויה לחלוטין שרק מחכה ללחץ חיצוני כדי לבצע את השינוי הקל ביותר", כתבו הודו מקיני ואריקה פורטנוי של EFF.