הערך החדש של Machine Learning Journal של אפל עוסק בפרטיות דיפרנציאלית

אפל פרסמה ביום רביעי מאמר נוסף דרך ה-Machine Learning Journal שלה, והפעם מכסה את נושא הפרטיות הדיפרנציאלית - הטכנולוגיה שהיא משתמשת לאיסוף נתונים גדולים מלקוחות תוך ערימת זהותם.

אפל עושה שימוש בפרטיות דיפרנציאלית "מקומית", במקום מרכזית,את הניירמסביר. המשמעות היא ש"רעש" נוצר במכשיר של אדם לפני העלאת הנתונים, ולא לאחר מכן, מה שמבטיח שמידע מדויק לחלוטין לעולם לא יעבור את שרתי החברה.

"כאשר אנשים רבים מגישים נתונים, הרעש שנוסף יוצא לממוצע ומידע משמעותי מופיע", לפי אפל.

החברה גם מציגה את אופי ההצטרפות של הטכנולוגיה הטכנולוגית, ואמצעי הגנה אחרים כגון מחיקה אוטומטית של כתובות IP וקישורים בין רשומות לאחר העלאת המידע.

"בשלב זה, איננו יכולים להבחין, למשל, אם רשומת אימוג'י ורשומת דומיין אינטרנט של Safari הגיעו מאותו משתמש", ממשיך העיתון. "הרשומות מעובדות לחישוב סטטיסטיקות. הנתונים הסטטיסטיים המצטברים הללו משותפים לאחר מכן באופן פנימי עם הצוותים הרלוונטיים באפל".

מספר מקרי שימוש של פרטיות דיפרנציאלית כוללים גילוי אימוג'י פופולרי,זיהוי אתרים עתירי משאבים, תיקון אוטומטי של מקלדת המשתפר על ידי לימוד קיצורים, סלנג, מילים מגמתיות ומילים לועזיות מושאלות.

הטכנולוגיה הוכיחה את עצמה לעתים כשנויה במחלוקת, במיוחד מאז שמחקר לאחרונה טען שהגישה של אפל עדיין אוספתיותר מדי נתונים ספציפיים. אפל ערערה על המתודולוגיה והמסקנות שלה.