iOS 15.2 בטא החדשה כוללת תכונת הודעות המזהה עירום שנשלח לילדים

האחרון של אפלiOS15.2 בטא הציגה תכונת בטיחות תקשורת שהוכרזה בעבר על בחירה שנועדה להזהיר ילדים - ולא הורים - כאשר הם שולחים או מקבלים תמונות המכילות עירום.

תכונת ההודעות הייתה חלק מחבילת יוזמות בטיחות ילדים שהוכרזועוד באוגוסט. חשוב לציין, תכונת iMessage אינה המערכת השנויה במחלוקת שנועדה לזהות חומר של התעללות מינית בילדים (CSAM) בiCloud.

למרות שאינה מופעלת כברירת מחדל, הורים או אפוטרופוסים יכולים להפעיל את תכונת ההודעות עבור חשבונות ילדים בתוכנית שיתוף משפחתי. התכונה תזהה עירום בהודעות, תטשטש את התמונה ותזהיר את הילד.

אפל אומרת שילדים יקבלו משאבים מועילים ויבטיחו להם שזה בסדר אם הם לא רוצים לראות את התמונה. אם ילד ינסה לשלוח תמונות המכילות עירום, הגנות דומות ייכנסו לתוקף. בכל מקרה, הילד יקבל את האפשרות לשלוח הודעה למישהו שהוא סומך עליו לעזרה.

בניגוד לגרסה שתוכננה בעבר של התכונה, ההורים יעשו זאתלֹאלקבל הודעה אם המערכת מזהה שהודעה מכילה עירום. אפל אומרת שזה בגלל החשש שהודעה מהורים עלולה להוות סיכון לילד, כולל איום באלימות פיזית או התעללות.

אפל אומרת שזיהוי דגל עירום לעולם לא יעזוב מכשיר, והמערכת לא פולשת להצפנה מקצה לקצה של iMessages.

חשוב לציין שהתכונה ניתנת להצטרפות והיא נכללת רק בגרסת הבטא של iOS, כלומר היא אינה פונה לציבור כרגע. אין ציר זמן לגבי מתי זה יכול להגיע לעדכון iOS סופי, ויש סיכוי שניתן יהיה לשלוף את התכונה מהמהדורה הסופית לפני שזה יקרה.

שוב, תכונה זו אינה מערכת זיהוי ה-CSAM השנויה במחלוקת עליה הכריזה אפל וואז מתעכב. עוד בספטמבר, אפל אמרה שהיא הופיעה לראשונה בתכונת זיהוי ה-CSAM מאוחר יותר ב-2021. כעת, החברה אומרת שלוקח זמן נוסף לאסוף מידע ולבצע שיפורים נדרשים.

אין אינדיקציה מתי תעלה לראשונה מערכת ה-CSAM. עם זאת, אפל כן אמרה שהיא תספק הדרכה נוספת לילדים ולהורים בסירי ובחיפוש. בעדכון ל-iOS 15 ולמערכות הפעלה אחרות בהמשך 2021, החברה תתערב כאשר משתמשים יבצעו חיפושים אחר שאילתות הקשורות לניצול ילדים ותסביר שהנושא מזיק.