Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Google начала внедрять новые функции ИИ в Gemini Live, которые позволяют ей «видеть» ваш экран или через камеру вашего смартфона и отвечать на вопросы о них в режиме реального времени. Об этом сообщил представитель Google Алекс Джозеф (Alex Joseph) в электронном письме The Verge.
Новые функции появились почти через год после того, как Google впервые продемонстрировал работу «Проекта Астра» (Project Astra), которая их питает. Один пользователь Reddit сообщил, что эта функция появилась на его телефоне Xiaomi, как заметил 9to5Google.
Сегодня тот же пользователь опубликовал видео ниже, демонстрирующее новую возможность Gemini по чтению экрана.
Это одна из двух функций, о которых Google говорила в начале марта, что они «начнут внедряться для подписчиков Gemini Advanced в рамках плана Google One AI Premium» позже в этом месяце.
Другая возможность Astra, которая сейчас внедряется, — это живое видео, которое позволяет Gemini интерпретировать поток с камеры вашего смартфона в режиме реального времени и отвечать на вопросы о нем. В демонстрационном видео ниже, опубликованном Google в этом месяце, человек использует эту функцию, чтобы попросить Gemini помочь ему решить, какой цвет краски использовать для его свежевыглаженной керамики.
Внедрение этих функций Google — свежий пример лидерства компании в области AI-помощников, так как Amazon готовится к ограниченному раннему доступу к дебюту своего обновления Alexa Plus, а Apple отложила обновление Siri. Ожидается, что у обеих помощников будут функции, подобные тем, которые Astra начинает внедрять сейчас.
Тем временем Samsung все еще имеет Bixby, но Gemini по-прежнему является стандартным помощником на ее телефонах.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...