אפל תבעה במהלך 2022 הפסקת תכונות זיהוי CSAM

קורבן של התעללות מינית בילדות תובע את אפל על ביטול תוכנית שהוכרזה בעבר לסריקת תמונות המאוחסנות ב-2022.iCloudעבור חומר התעללות מינית בילדים.

אפל הציגה במקור תוכניתבסוף 2021כדי להגן על משתמשים מפני חומרי התעללות מינית בילדים (CSAM) על ידי סריקת תמונות שהועלו במכשיר באמצעות מערכת האשטאג. זה גם יזהיר משתמשים לפני שליחת או קבלה של תמונות עם עירום מזוהה באופן אלגורית.

תכונת זיהוי העירום, הנקראת בטיחות תקשורת, עדיין קיימת היום. עם זאת, אפל ביטלה את התוכנית שלה לזיהוי CSAMלאחר תגובה נגדיתממומחי פרטיות, קבוצות לבטיחות ילדים וממשלות.

אישה בת 27, שהייתה קורבן להתעללות מינית בילדותה על ידי קרובת משפחה, תובעת את אפל באמצעות שם בדוי שהתיר בית המשפט על הפסקת תכונת זיהוי ה-CSAM. היא אומרת שהיא קיבלה בעבר הודעת אכיפת חוק לפיה התמונות של ההתעללות שלה אוחסנו ב-iCloud באמצעות MacBook שנתפס בוורמונט כשהפיצ'ר היה פעיל.

בתביעה שלה, היא אומרת שאפל הפרה את הבטחתה להגן על קורבנות כמוה כאשר היא ביטלה את תכונת סריקת ה-CSAM מ-iCloud. בכך היא אומרת שאפל אפשרה לשתף את החומר הזה בהרחבה.

לכן, אפל מוכרת "מוצרים פגומים שפגעו במעמד של לקוחות" כמוה.

קורבנות נוספים מצטרפים לתביעה

התביעה של האישה נגד אפל דורשת שינויים בפרקטיקות של אפל, ופיצוי פוטנציאלי לקבוצה של עד 2,680 קורבנות זכאים אחרים, לפי אחד מעורכי הדין של האישה. התביעה מציינת שתכונות סריקת CSAM המשמשות את פייסבוק של גוגל ו-Meta תופסות הרבה יותר חומר לא חוקי מאשר התכונה נגד עירום של אפל.

לפי החוק הנוכחי, קורבנות של התעללות מינית בילדים יכולים לקבל פיצוי בסכום מינימלי של 150,000$. אם כל התובעים הפוטנציאליים בתביעתה של האישה היו זוכים בפיצוי, הנזק עלול לעלות על 1.2 מיליארד דולר עבור אפל אם היא תימצא אחראית.

בתיק קשור, עורכי דין הפועלים בשמו של קורבן CSAM בן תשע תבעו את אפל בבית משפט בצפון קרוליינהבאוגוסט. במקרה זה, הנערה אומרת שזרים שלחו לה סרטוני CSAM דרך קישורי iCloud, ו"עודדו אותה לצלם ולהעלות" סרטונים דומים, לפיהניו יורק טיימס, אשרדיווח על שני המקרים.

אפל הגישה בקשה לביטול התיק בצפון קרוליינה, וציינה שסעיף 230 של הקוד הפדרלי מגן עליה מפני אחריות לחומר שהועלה ל-iCloud על ידי המשתמשים שלה. הוא גם אמר שהוא מוגן מפני תביעות אחריות למוצר מכיוון ש-iCloud אינו מוצר עצמאי.

פסיקות בית המשפט מרככות את הגנת סעיף 230

עם זאת, פסקי דין אחרונים של בית המשפט עלולים לפעול נגד הטענות של אפל להימנע מאחריות. בית המשפט לערעורים בארה"ב עבור המעגל התשיעינָחוּשׁשהגנות כאלה יכולות לחול רק על ניהול תוכן פעיל, ולא כהגנה גורפת מפני אחריות אפשרית.

דובר אפל, פרד סיינץ, אמר בתגובה לתביעה החדשה כי אפל מאמינה ש"חומר של התעללות מינית בילדים הוא מתועב, ואנו מחויבים להילחם בדרכים שבהן טורפים מסכנים ילדים".

סיינץ הוסיף כי "אנו מחדשים בדחיפות ובאופן אקטיבי כדי להילחם בפשעים הללו מבלי לפגוע באבטחה ובפרטיות של כל המשתמשים שלנו".

הוא הצביע על הרחבת תכונות זיהוי העירום לאפליקציית ההודעות שלה, יחד עם היכולת של משתמשים לדווח על חומר מזיק לאפל.

האישה מאחורי התביעה ועורכת הדין שלה, מרגרט מייבי, לא מסכימות שאפל עשתה מספיק. כהכנה לתיק, מייבי חפרה בדוחות אכיפת החוק ומסמכים אחרים כדי למצוא מקרים הקשורים לתמונות של לקוחותיה ולמוצרים של אפל.

מייבי בנתה בסופו של דבר רשימה של יותר מ-80 דוגמאות לתמונות המשותפות. אחד האנשים ששיתפו את התמונות היה איש אזור המפרץ שנתפס עם יותר מ-2,000 תמונות וסרטונים לא חוקיים המאוחסנים ב-iCloud,פִּיציין.