Сотрудники Apple и разработчики Siri рассказали о машинном обучении в iOS

0
249

Журналист Стивен Леви опубликовал подробный материал об искусственном интеллекте, разрабатываемом Apple, сосредоточившись на аспекте машинного обучения. Написать эту статью Леви смог после того, как встретился и поговорил со старшими исполнительными сотрудниками Apple Крейгом Федериги, Эдди Кью и Филом Шиллером, а также с двумя специалистами, разработавшими Siri. Встреча прошла на территории компании. Леви смог поближе познакомиться с интеграцией машинного обучения в созданные Apple ПО и сервисы, которая осуществляется главным образом благодаря Siri. В статье он пишет о том, что с 2014 года Siri работает на основе нейросетей. Это изменение значительно улучшило точность работы персонального помощника.

Эдди Кью сказал, что улучшения, достигнутые системой, основанной на нейросетях, заставили сотрудников перепроверить результаты, чтобы исключить ошибку — казалось, будто запятую в десятичной дроби поставили в неправильном месте. Алекс Эйсеро, возглавляющий команду разработчиков речи Siri, сказал, что показатель ошибок был снижен более чем на порядок, а в некоторых областях и на два. Эйсеро связывает это с глубоким обучением и оптимизацией системы — как самого алгоритма, так и продукта в целом.

Эйсеро также сказал журналисту, что работал напрямую с командой, создающей чипы Apple, и с инженерами, которые занимаются созданием ПО для устройств на iOS. Это позволило улучшить работу нейросетей. Федериги добавил, что одновременная работа над «железом» и софтом даёт компании огромное преимущество.

Это не просто чипы. Это количество микрофонов, которые мы устанавливаем, места, где мы их поставим. Это необходимые настройки чипов, микрофонов и программного обеспечения, дающие в итоге правильный звук. Все эти инструменты играют один большой концерт. И всё это даёт нам потрясающее преимущество по отношению к тем, кто создаёт какую-то программу и просто ждёт, что произойдёт дальше.

Обучаемые машины Apple не ограничиваются Siri, уточняет в своём материале Леви. Очень многие процессы повседневной работы смартфона связаны именно с обучаемым ИИ. В качестве примеров журналист приводит идентификацию звонящего, который отсутствует в вашем списке контактов (но недавно присылал вам письмо на почту), алгоритм подборки нужных вам приложений в специальном меню, напоминание о событии, которое вы сами не отмечали в своём календаре. Все эти техники, предугадывающие действия пользователя, работают благодаря улучшенной системе нейросетей Apple, которая позволяет устройству обучаться. Также обучение было использовано и в Apple Pencil: аксессуар распознаёт взмах, прикосновение и тычок и отличает эти жесты друг от друга именно благодаря этой системе, а также не позволяет случайным прикосновениям ладони помешать использованию стилуса.

На iPhone машинное обучение работает через локализованный динамический кэш, который называется «базой знаний» и занимает около 200 МБ памяти (больше или меньше в зависимости от количества хранящейся персональной информации). В базе знаний содержится информация об использовании приложений, общении с другими людьми, нейросетевые процессы, речевой модуль и «конструктор естественного языка». Также здесь находятся данные, необходимые нейросетям при распознавании объектов, лиц и классификации мест.

Apple настаивает на том, что машинное обучение происходит целиком и полностью в пределах конкретного устройства, не передавая персональную информацию о пользователе компании. Кью и Федериги заявили, что ИИ использует личную информацию, однако ничего из самой важной и интимной информации пользователя никогда не попадает на серверы Apple.

Источник: macrumors.com

No votes yet.
Please wait...

ОСТАВЬТЕ ОТВЕТ