{"id":14279,"url":"\/distributions\/14279\/click?bit=1&hash=4408d97a995353c62a7353088166cda4ded361bf29df096e086ea0bbb9c1b2fc","title":"\u0427\u0442\u043e \u0432\u044b\u0431\u0435\u0440\u0435\u0442\u0435: \u0432\u044b\u0435\u0445\u0430\u0442\u044c \u043f\u043e\u0437\u0436\u0435 \u0438\u043b\u0438 \u0437\u0430\u0435\u0445\u0430\u0442\u044c \u0440\u0430\u043d\u044c\u0448\u0435?","buttonText":"","imageUuid":""}

Google добавит управление жестами в смартфоны Pixel 4 Статьи редакции

Смартфон станет первым устройством Google с поддержкой технологии Soli, разработанной под руководством учёного Ивана Пупырёва.

Google добавит в смартфоны Pixel 4 управление жестами и разблокировку с помощью лица, говорится в блоге компании. СМИ ожидают, что Google представит Pixel 4 в октябре 2019 года.

Компания использовала технологию Soli, над которой в течение последних пяти лет работает подразделение Google ATAP. Радар установлен в верхней части смартфона — он может распознавать жесты и понимать, когда пользователь находится рядом с устройством.

Pixel 4 станет первым устройством с Soli и с поддержкой функции Motion Sense, отметили в Google. Например, с её помощью пользователи смогут переключать песни, отключать оповещения и сбрасывать входящие вызовы. Motion Sense будет доступен на Pixel в некоторых странах.

Датчики и камеры для поддержки Motion Sense и разблокировки смартфона с помощью лица Google

Google впервые рассказала о технологии Soli на конференции для разработчиков в 2015 году. Руководитель проекта — учёный Иван Пупырёв родом из России. Компания встроила датчик в «умные» часы — пользователь мог взаимодействовать с устройством без прикосновения к нему. Также Google тестировала Soli на колонке, но решила доработать технологию перед коммерческим запуском.

The Verge
0
57 комментариев
Написать комментарий...
Цой жив

Ощущение, что Google отстал от мира лет так на 10-ть

Ответить
Развернуть ветку
Михаил

Где десять лет назад было управление жестами без прикосновения к экрану?

Ответить
Развернуть ветку
Александр Привалов

где и сейчас - на свалке идей

Ответить
Развернуть ветку
Dmitry Myachin

Ну так где реализация?

Ответить
Развернуть ветку
Александр Привалов

Sony Xperia Sola, как сейчас помню, была. Собственно еще тогда все разбирали этот кейс, решили что оно нихрена ни упрощает, ни расширяет функционал.

Ответить
Развернуть ветку
Dmitry Myachin

Кто "все"? Я не разбирал.
И я утверждаю, что мне будет удобно прокручивать текст с рецептом блюда не касаясь экрана, потому что руки в муке.

Ответить
Развернуть ветку
Zhenya Ptichnikov

А вроде же в каком-то из Samsung Galaxy S была реализована подобная функция, она отслеживала взгляд и позволяла листать книгу, например, одним взглядом, по крайней мере так в маркетинговых материалах было показано. На самом деле такого действительно не хватает, постоянно, когда кушаю бургер хочется как-то без прикосновений листать ленту твиттера, но в айфоне таких функций нет.

Ответить
Развернуть ветку
Dmitry Myachin

Была, да. Я буквально на днях кому-то об этом рассказывал. А ещё там была удобная фича, что если ты ложишься на кровать, то экран понимал, что ты тоже принял горизонтальное положение, а не просто перевернул телефон и не поворачивал изображение. Аналогично он понимал, что ты читаешь текст и не гасил экран, пока ты на него смотришь.

Ответить
Развернуть ветку
54 комментария
Раскрывать всегда