Среда, 14 мая в 21:20 UTC+3
Загрузка...

AirPods с камерами для визуального интеллекта: почему это может стать одной из лучших функций безопасности от Apple


36Опубликовано 24.03.2025 в 14:27Категория: ГаджетыИсточник
Изображение статьи

По слухам, Apple все еще работает над камерами для AirPods. В основе планов Apple лежит Visual Intelligence в iOS 18. Новые функции "еще на несколько поколений" от даты выхода.

Мы знаем "что" – Apple экспериментирует с камерами в AirPods – и теперь, возможно, знаем "почему". Новый отчет проливает свет на планы Apple по будущим AirPods, и если эта технология сможет сделать то, что обещает, она может стать действительно важной функцией личной безопасности. Есть важное замечание: функции "еще как минимум на несколько поколений" от даты выхода на рынок.

Отчет поступает от хорошо осведомленного Марка Гурмана из Bloomberg, который говорит, что "ультимативная цель Apple для Visual Intelligence выходит далеко за рамки iPhone". И AirPods – важная часть этого плана. По словам Гурмана, Visual Intelligence – распознавание окружающего мира и предоставление полезной информации или помощи – считается очень важным внутри Apple, и компания планирует встроить камеры и в Apple Watch, и в Apple Watch Ultra. Как и с AirPods, это поможет устройству "видеть" внешний мир и использовать ИИ для предоставления релевантной информации.

Как AirPods будут работать с Visual Intelligence Visual Intelligence был представлен в iOS 18 для iPhone 16, и он позволяет вам навести камеру на что-то и узнать больше об этом: тип растения, порода собаки (как на изображении в верхней части этой статьи), часы работы только что найденного кафе и так далее. Visual Intelligence также может переводить текст, а может быть, однажды он сможет помочь людям, как я, у которых ужасно плохая память на имена и лица.

Основная проблема с Visual Intelligence заключается в том, что вам нужно достать телефон, чтобы использовать ее. И есть ситуации, когда вы не захотите этого делать. Я вспоминаю, когда Apple добавила Maps в Apple Watch: возможность использования Maps без трансляции "Я не отсюда и я ужасно заблудился. К тому же у меня очень дорогой телефон" всем злодеям района – это была важная функция личной безопасности.

То же самое может быть и с AirPods. Если Apple сделает возможным вызывать Visual Intelligence нажатием головы и сжатием стеблей, то это позволит получать важную информацию – например, перевод дорожного знака на другом языке – без размахивания телефоном.

До появления этих функций еще далеко – не ожидайте их в AirPods Pro 3, которые, вероятно, появятся позже в 2025 году. Но я взволнован этой перспективой: представьте себе Apple Intelligence, но хорошо работающую.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.