iPhone או AirPods עתידיים יוכלו לצפות וללמוד את המחוות הייחודיות של המשתמש

אפל רוצה עתידאייפוןאו AirPods כדי לצפות במשתמש וללמוד את תנועות המשתמש באמצעות Machine Learning כך שהחלקה על כל מכשיר או משטח יכולה לגרום לתגובה כמו הגברת או הורדת עוצמת הקול.

זה נשמע כמו טריק בסלון. ב אפטנט שהוענק לאחרונה, אפל רוצה שמכשירים יוכלו להעמיד פנים שיש להם פקדים רגישים למגע. זה מדגיש שזה עבור כל מכשיר, אבל הדוגמה החוזרת היא של אוזניות שבהן זה יכול להיות בקרת עוצמת הקול שבה אין בקרת עוצמת הקול.

הפטנט נקרא "Machine-Learning Based Gesture Recognition", אבל מחוות הן רק חלק ממנו. הרעיון של אפל הוא שלמכשיר כמו אוזניה לבישה יכולים להיות חיישנים אחרים, בדרך כלל אופטי או קרבה, אבל אולי חיישן טמפרטורה או תנועה.

"עם זאת, אוזניות ו/או אוזניות עשויות שלא לכלול חיישן מגע לזיהוי כניסות מגע ו/או מחוות מגע", אומרת אפל, "לאור אילוצי גודל/מקום, אילוצי כוח ו/או עלויות ייצור".

אם אין לך חיישן מגע, היום, זה מגביל. אבל, זה לא עוצר את אפל.

"למרות זאת, ייתכן שרצוי לאפשר למכשירים שאינם כוללים חיישני מגע, כמו אוזניות, לזהות קלט מגע ו/או מחוות מגע מהמשתמשים", נכתב. "[הצעה זו] מאפשרת למכשיר שאינו כולל חיישן מגע לזהות קלט מגע ו/או מחוות מגע ממשתמשים על ידי שימוש בקלט המתקבל באמצעות חיישני אחד או יותר ללא מגע הכלולים במכשיר."

אז אולי לאוזניה שלך יש מיקרופון והיא יכולה לקלוט את הצליל של הקשה שלך עם האצבע על המכשיר. או שיש לו חיישן אופטי והאצבע שלך חוסמת את האור כשאתה הולך ללטף את המכשיר.

ניתן לאמן למידת מכונה להגיב כאשר חיישנים מרובים רושמים שינוי

אפל מאוד יסודית לגבי אילו חיישנים אפשר להעלות על הדעת - ולהשתמש בהם זה עם זה. "החיישנים... עשויים לכלול חיישנים אחד או יותר לזיהוי תנועת המכשיר, מידע ביומטרי של המשתמש (למשל, דופק), קול, אור, רוח ו/או בדרך כלל כל קלט סביבתי", נכתב.

"לדוגמה", הוא ממשיך, "החיישנים... עשויים לכלול אחד או יותר של מד תאוצה לזיהוי תאוצת מכשיר, מיקרופון אחד או יותר לזיהוי קול ו/או חיישן אופטי לזיהוי אור".

הנקודה היא שבכוחות עצמו, כל חיישן אחד יכול לטעות. אולי אתה מגרד את האוזן ממש ליד המיקרופון, למשל. או שהאור נחסם בגלל שאתה נשען על קיר.

הרעיון של אפל, והסיבה לכך שזה כרוך ב-Machine Learning, היא שהשילוב של חיישנים יכול לעבוד יחד. "[הכניסות] שזוהו על ידי החיישן האופטי, מד התאוצה והמיקרופון עשויות להעיד בנפרד ו/או ביחד על כניסת מגע", אומר הפטנט.

"לאחר אימון, מודל למידת המכונה מייצר קבוצה של תחזיות פלט התואמות למחוות חזויות", ממשיכה אפל. אז ML יכול ללמוד שקול גירוד במיקרופון אינו מספיק כשלעצמו, אבל כשאור לתוך חיישן אופטי נחסם, משהו קורה.

כמו תמיד עם פטנטים, התיאורים עוסקים יותר איך מזהים משהו מאשר מה ייעשה אז עם המידע. במקרה זה, למרות שאפל אכן אומרת שאחרי ש"נוצרות תחזיות כאלה, ניתן להחיל מדיניות על התחזיות כדי לקבוע אם יש לציין פעולה עבור התקן פלט השמע האלחוטי 104 לבצע."

אז אם ML חושב ששינוי, למשל, בשלושה חיישנים, הוא משמעותי, היא יכולה להעביר את זה לתוכנה. תוכנה זו יכולה אז, למשל, להעלות או להנמיך את עוצמת הקול במכשיר.

ניתן לשלב חיישנים מרובים על פני מספר מכשירים.

זה נשמע כאילו אפל דוחסת חיישנים רבים למכשירים ונאלצה להחליט איזה מהם להשאיר בחוץ בגלל חוסר מקום. אבל בהרחבה, אם ML יכול ללמוד מכל החיישנים במכשיר, הוא בוודאי יכול ללמוד מכל מכשיר שיש למשתמש.

כתוצאה מכך, אם AirPod מזהה צליל מסוים אבלApple Watchלא, אז הצליל הזה מתרחש ליד האוזניה. לכן סביר הרבה יותר שהמשתמש רוצה לעשות משהו עם ה-AirPod.

המצאה זו נזקפת לזכות שמונה ממציאים. הם כוללים את טימותי ס. פאק, שלועבודה קודמתעבור Apple כולל שישסירירשום הערות כשאתה מדבר בטלפון.