На выставке MWC 2017 помимо новых мобильных устройств было представлено множество амбициозных проектов. Например, компания Elliptic Labs в очередной раз демонстрировала технологию управления смартфоном с помощью жестов. В её основе лежит ультразвук, который позволяет устройству отслеживать все движения вокруг себя. По принципу работы технология схожа с сонаром. Динамик смартфона излучает ультразвуковой сигнал, а микрофон фиксирует его возвращение. Специальные алгоритмы рассчитывают время возврата сигнала, что и позволяет смартфону с высокой точностью определять движения вокруг.
Технология Elliptic Labs пока не используется ни в одном коммерческом устройстве, но на выставке было представлено несколько интересных примеров её применения. Например, когда телефон лежит на столе и начинает звонить, то достаточно протянуть к нему руку, чтобы ответить, и мелодия прекратит играть. А если вы смотрите видео на смартфоне, то кнопки управления появляются на экране сразу же, как вы начинаете тянуться к нему, чтобы остановить воспроизведение. Ещё один пример использования управления жестами порадует любителей селфи. Когда смартфон находится на моноподе, и вы сделали селфи, достаточно приблизить руку у экрану, чтобы увеличить фото и посмотреть, хорошо ли оно получилось.
Лайла Даниэльсен, генеральный директор Elliptic Labs, рассказала, что их технология начнёт широко использоваться только тогда, когда все жесты будут интуитивно понятными, и пользователю не нужно будет задумываться о том, как выполнить то или иное действие. Она также заявила, что первые смартфоны с применением данной технологии появятся уже в этом году. К этой информации стоит отнестить скептически, так как глава Elliptic Labs делает подобное заявление ежегодно начиная с 2015 года.
Источник.