התרומה האחרונה של אפל לבלוג למידת המכונה שלה היא צלילה לאופן שבו פועלת התוכנה שמאחורי הפקודה "היי סירי", וכיצד החברה משתמשת ברשת עצבית כדי להמיר את הדפוס האקוסטי של הקול כדי לסנן אותו מהרקע.
המאמר החדשפורסם ביום רביעימתרכז בעיקר בחלק של Siri שפועל ישירות על אייפון או אפל ווטש. במיוחד, הוא מתמקד בגלאי - מזהה דיבור מיוחד שתמיד מקשיב רק לביטוי ההתעוררות שלו, אבל צריך להתמודד גם עם רעשים אחרים.
אפל מציינת שהחומרה באייפון או ב-Apple Watch הופכת את הקול שלך לזרם של דגימות של צורות גל מיידיות, בקצב של 16000 לשנייה. כ-0.2 שניות של שמע בכל פעם מוזנים ל"Deep Neural Network" המסווגת למה שמאזין, ומעבירה סבירות אם מה שהיא מאזינה לו הוא ביטוי ההפעלה לשאר מערכת ההפעלה.
אפל קבעה מספר ספים לרגישות. אם ניקוד נמצא בטווח חציוני, התוכנה מקשיבה בתשומת לב רבה יותר לביטוי בפעם השנייה למשך מספר שניות כדי לוודא שהוא לא תפספס שוב.
לאחר ההפעלה הראשונית, צורת הגל מגיעה לשרת Siri. אם מזהה הדיבור הראשי שומע את זה כמשהו אחר מלבד "היי סירי" - למשל "היי ברצינות" - אז השרת שולח אות ביטול לטלפון כדי להחזיר אותו למצב שינה.
ישנם גם מפרטים פונטיים ספציפיים לשפה משולבים, כאשר אפל מציינת שהמילים "סוריה" ו"רציניות" נבדקות בהקשר לביטוי שמסביב.
ה-Apple Watch מציג כמה אתגרים מיוחדים בגלל הסוללה הקטנה בהרבה, ויכולת העיבוד הפחות חזקה. כדי לעקוף את הבעיות הללו, גלאי ה-"Hey Siri" של Apple Watch פועל רק כאשר מעבד התנועה של השעון מזהה תנועת הרמת שורש כף היד, אשר מפעילה את המסך.
כתב העת Machine Language Journal של אפל עלה לאוויר19 ביולי, עם הפוסט הראשון, "שיפור הריאליזם של תמונות סינתטיות" דנים באימון רשתות עצביות עם תמונות שנאספו. היצירה הראשונה השתמשה בעיניים ובמבטים כדוגמה למערך נתונים שבו יש צורך במגוון גדול של מידע אימון, אך הקושי באיסוף הנתונים האמורים עלול לעמוד בדרכה של למידת מכונה יעילה.
אפל מזמינה חוקרי למידת מכונה, סטודנטים, מהנדסים ומפתחים ליצור איתם קשר עם שאלות ומשוב על התוכנית.
נראה שהאתר הוא חלק מההבטחה של אפל לאפשר לחוקרים לפרסם את מה שהם מגלים ולדון במה שהם עובדים עליו עם האקדמיה בכלל. השינוי הים במדיניות של אפל הוכרזבדצמברמאת אפל מנהל חקר הבינה המלאכותית ראס סלחוטדינוב.