本周曝光的一项专利表明,Google 似乎对设备的各种手势控制有着很深的理解。与在空中挥手的方式不同,本周提交的这项名为《通过空间感知手势与设备交互》的专利,已经扩展到了超越预先配置和 DIY 控制的范畴,描述中称其可以“直观地执行用户的手势操作”。普通操作包含了按压、推拉和轻触,但 Google 还提出了两项重要的概念。
首先是“相当于自然语言的手势”:在文件中,描述了这样一款设备,它能够对用户的手势作出解释。
举例说,用户可以用独特的双拇指朝下的手势,表达想要关闭一台设备的意思。设置完操作请求之后,设备会要求用户动手示意,然后在识别后触发对应的操作。
其次,Google 还在专利中展示了“多设备手势识别与命令”的潜力。
比如说,用户可以不通过“OK Google,点亮客厅的灯”这样的语音命令,而是直接在任何手势识别设备前挥动双手(或者摆出按开关的动作),即可让房间亮灯。
上面的动图,来自于 Google 多年前开发的 Project Soli 。2015 年 5 月的时候,该公司首次进行了演示。凭借 Google 的实力,相信咬咬牙就能正式推出来。
最后,Google 于今日放出了一个 Soli SDK 。另外一个 ATAP 大项目是 Jacquard,且其刚于本周发布了 Google Levi's Jaquard 智能夹克。
未来我们有望全速转向嵌入触屏下方的指纹传感器、增强现实、抛弃实体导航键,甚至可能连触屏都很快会消失。
[编译自:SlashGear]