Apple подала заявку на патент, описывающий интерфейс дополненной реальности, который может сканировать, распознавать и описывать объекты реального мира и отображать информацию о них на дисплее в реальном времени.
Описанную систему предполагается применять на устройствах iOS в ряде случаев. Предполагается, что алгоритм описывает объекты в потоке видео с камеры устройства, а также способен распознавать и тегировать части статического изображения. Apple описывает, что система самообучаема: пользователь может корректировать работу алгоритма и описаний, в случае если система ошибется с распознаванием или маркировкой объектов, и в следующий раз подобной ошибки программа не допустит.
Также в патенте описываются различные опции для синхронизации информации между пользователями и устройствами. Патент описывает возможность показывать одновременно и само исходное изображение, и версию с дополнительной информацией рядом друг с другом. Apple приводит пример реального города Сан-Франциско, рядом с которым показана компьютерная модель того же города. Пользователь может взаимодействовать с моделью: осуществлять навигацию по улицам или отмечать интересующие места. Еще одно применение, описываемое Apple, — медицина. К примеру, в двуоконном режиме удобно сравнивать рентгеновские снимки.
Система дополненной реальности, предложенная Apple, выгодно отличается от подобных проектов в этой области наличием социальных функций. Также потенциал системы можно удачно совместить с носимыми гаджетами, вроде Google Glass. Но даже если подобные функции будет доступны в будущем в "Картах" — этого уже будет вполне достаточно.