בנאום בכנס Sight Tech Global ביום חמישי, בכירי אפל, כריס פליזך ושרה הרלינגר, העמיקו במאמצים של החברה להנגיש את מוצריה למשתמשים עם מוגבלויות.
בווירטואלירֵאָיוֹןנערך על ידישל TechCrunchמתיו פנזארינו, פליזך והרלינגר פירטו את מקורות הנגישות באפל, היכן היא נמצאת כרגע ולמה המשתמשים עשויים לצפות בעתיד.
Fleizach, המשמש כמוביל הנדסת נגישות של אפל עבור iOS, הציע רקע על האופן שבו אפשרויות הנגישות נחתו על הפלטפורמה הניידת של החברה. אם נחזור לאייפון המקורי, שחסרו הרבה מתכונות הנגישות שמשתמשים התחילו להסתמך עליהם, הוא אמר שצוות Mac VoiceOver קיבל גישה למוצר רק לאחר שליחתו.
"וראינו את המכשיר יוצא והתחלנו לחשוב, כנראה שנוכל להנגיש את זה", אמר פליזך. "התמזל מזלנו להיכנס מוקדם מאוד - אני מתכוון שהפרויקט היה סודי מאוד עד שהוא נשלח - מהר מאוד, מיד לאחר שנשלחו הצלחנו להיות מעורבים ולהתחיל ליצור אב טיפוס של דברים".
לקח כשלוש שנים עד שהמאמץ להגיע לאייפון עם iOS 3 ב-2009.
Fleizach מציע גם שפרויקט VoiceOver לאייפון זכה למשיכה לאחר מפגש מקרי עם המייסד המנוח סטיב ג'ובס. בזמן שהוא מספר זאת, פליזך אכל ארוחת צהריים (כנראה בקמפוס של אפל) עם חבר שמשתמש ב-VoiceOver עבור Mac, וג'ובס ישב בקרבת מקום. ג'ובס הגיע כדי לדון בטכנולוגיה, ואז חברו של פליזך שאל אם היא עשויה להיות זמינה באייפון. "אולי נוכל לעשות את זה", אמר ג'ובס, לפי פליזך.
מההתחלה הצנועה שלה, הנגישות ב-iOS הפכה למערך מאפיינים הכוללים טכנולוגיה כמו מגע מסייע, התאמות שמיעה, בחירת שמע, הכתבה, זיהוי קול ועוד. האחרוןאייפון 12 פרומוסיף LiDAR לתערובת עבור זיהוי אנשים.
הרלינגר, המנהל הבכיר של אפל למדיניות ויוזמות גלובליות של אפל, אומר שצוות הנגישות מוכנס כעת מוקדם למגוון פרויקטים.
"למעשה מביאים אותנו ממש מוקדם לפרויקטים האלה", אמרה. "אני חושב שצוותים אחרים חושבים על מקרי השימוש שלהם, אולי לציבור רחב יותר, הם מדברים איתנו על סוגי הדברים שהם עושים כדי שנוכל להתחיל לדמיין מה נוכל לעשות איתם. נקודת מבט של נגישות".
תכונות אחרונות, כגון VoiceOver Recognition ו-Screen Recognition, נשענים על חידושים חדשניים הקשורים ללמידת מכונה. מכשירי ה-iOS העדכניים ביותר משלבים שבבים מסדרת A עם ה- Neural Engine של אפל, מודול רשת עצבי ייעודי שתוכנן במיוחד עבור חישובי ML.
VoiceOver Recognition הוא דוגמה לפונקציונליות חדשה מבוססת ML. עם הכלי, iOS יכול לא רק לתאר את התוכן המוצג במסך, אלא לעשות זאת עם הקשר. לדוגמה, במקום לומר שסצנה כוללת "כלב, בריכה וכדור", VoiceOver Recognition מסוגל לנתח בצורה חכמה את אותם נושאים ל"כלב קופץ מעל בריכה כדי להביא כדור".
אפל רק מגרדת את פני השטח עם ML. כפי שציין Panzarino, סרטון שפורסם לאחרונה מציג תוכנה שלוקחת ככל הנראה את VoiceOver Recognition ומחילה אותה על המצלמה של האייפון כדי להציע תיאור של העולם כמעט בזמן אמת. הניסוי ממחיש מה עשוי להיות זמין למשתמשי iOS בשנים הקרובות.
"אנחנו רוצים להמשיך לבנות עוד ועוד תכונות, ולגרום לתכונות האלה לעבוד ביחד", אמר הרלינגר. "אז מה יהיה השילוב שאתה צריך כדי להיות יעיל יותר בשימוש במכשיר שלך, זו המטרה שלנו."
הראיון כולו הועלה ליוטיוב וניתן לצפות בו למטה: