Управлять смартфоном теперь можно, нажимая пальцами на ладонь, как если бы она была экраном. Об остальном позаботятся специальные камеры и программное обеспечение.
Чтобы выяснить, насколько хорошо пользователи Apple ориентируются в своих iPhone, Шон Густафсон и его коллеги из Потсдамского университета пригласили 12 добровольцев.
В итоге 68% участников правильно расположили большинство приложений на участках ладони, которые соответствуют той или иной клавише на тачскрине. При работе с популярными приложениями точность достигала 80%, пишет Компьюлента.
Воодушевившись такими результатами, исследователи приспособили систему распознавания движений, состоящую из видеокамер и сенсоров для отслеживания тычков пальца в ладонь. Похожая технология используется в Microsoft Kinect.
В экспериментах применялось довольно громоздкое устройство, размещаемое на голове.
Но рано или поздно, как надеются авторы, систему можно будет встроить в пуговицу на одежде или замаскировать под аксессуар, а пользователи, становясь всё искушённее в «слепом» управлении «Айфоном», смогут выполнять более сложные задачи.
Главным недостатком предложенного способа взаимодействия с гаджетом является невозможность полной автономии: для телефонного разговора нужно, чтобы iPhone был рядом с хозяином.
Так что разработка германских специалистов является, по сути, разновидностью handsfree.