Google 要造一台能「理解」你的电脑

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

来源:APPSO

上世纪 90 年代,计算机学家马克维瑟(MarkWeiser),在文章《21 世纪的计算机》提出了一个新的概念——普适计算。

他认为未来的计算机将融于网络、融于环境、融于生活,它应该无处不在、又让人意识不到。

Google 要造一台能「理解」你的电脑

就像我们看到指路牌不会去思考指路牌是什么,而是直接看指路牌上的文字,计算机应该是「无感」的,人们不用思考而能直接使用。

几十年间,无数人和 科技 公司试图将这个「未来预言」变成现实,Google 作为其中之一,提出了一个新的实现方法,让环境中的计算机理解人类,理解每一个人的行为。

一台能「理解」你的电脑

烹饪时用平板电脑实时播放菜谱视频,当你离开去拿配料视频自动停止,回来时视频又自动播放。

Google 要造一台能「理解」你的电脑

这样的故事,在科幻电影中多次上演,也是不少智能家居公司向大众描绘的未来,如今 Google 真的做到了,在它最新的 Soli 技术展示视频中,几乎展示了一模一样的场景。

它是怎么做到的?

Google 的答案是让电脑理解你的动作变化,早在 Pixel 4 上这家公司就推出了手势交互功能,不需要触屏点击,轻轻一挥手就能切歌、暂停等, 手机 反馈精确。

Google 要造一台能「理解」你的电脑

手势交互功能很大程度上依赖 Pixel 4 顶部的 Soli 雷达传感器,如今 Google 将这颗传感器应用到了智能家居控制器 Nest Hub 等硬件当中。

电脑「理解」人动作的原理其实并不复杂,Soli 雷达会实时扫描周边区域,并模拟出一个类 3D 的空间,人体就是其中一个会动的小点。

根据小点运动的轨迹,结合庞大的数据分析,系统会得出你的动作是什么,实际意图是什么,比如当你从沙发上起身,系统就能通过动作姿势分析出你可能要离开,电视就会自动暂停播放。

视频自动暂停和播放只是 Google 技术演示中的场景之一,视频中还展示了各种提示场景,比如出门时恒温器会提醒你带伞避雨,起身离开提醒你接下来有一个视频通话。

得益于集成的 Soli 超声波雷达传感器,Nest Hub 可以通过捕捉你的动作,进而追踪你的睡眠情况,只要将 Nest Hub 放在与床垫差不多高的床头柜上,它就会自动追踪动作,并通过数据的形式告诉你睡眠时间、呼吸方式、是否打鼾。

在你睡下后,Nest Hub 会自动降低屏幕亮度,减少打扰

根据你的睡眠情况,Nest Hub 还会推荐最佳入睡时间。

接入 Soli 雷达传感器与智能分析系统后,智能家居真正「聪明」了起来,能理解人的一部分动作并准确做出反馈。

接受 媒体 FastCompany 采访时,负责 Soli 技术研发的 Google ATAP 设计主管 Leonardo Giusti 表示:

人们相互理解的方式给我们带来了启发。

当你走在某人后面时,他们会为你开门。当你要去拿某样东西时,旁边的人会递给你,作为人类,我们常常不用说一句话就能凭直觉相互理解。

这种直觉式的理解带来了几乎无感的体验。动作,是人类最普遍的「语言」,也是最佳的研究线索之一。

「无感」体验与空间行为学

无感,是硬件产品体验的最高评价之一,基于 Soli 雷达的 Google 产品做到了,无论是离开视频自动暂停,还是出门恒温器自动提醒带伞。

出门前提醒带伞

融于家居环境,细微且自然。

无感体验的构建,与《空间行为学》息息相关,要理解人们的动作姿态,就势必要了解在固定空间内人与人之间的交往行为原理,在 Google STAP 团队设计总监 Giusti 看来:

我们想象人和设备可以拥有个人空间。

这些空间之间的重叠,可以给我们一个在任何特定时刻,都对参与类型以及他们之间的社会关系有很好的了解。

学者爱德华 · 霍尔(Edward Hall)在上世纪 60 年代提出了《空间行为学》的理念,人们会因不同的文化背景构建人际距离空间,由近及远分别是亲密距离、个人距离、公共距离。

霍尔提出的人与人交际距离图标

落到实际应用上,当你接近搭载 Soli 雷达的 Nest Hub 并与之眼神接触时,Nest Hub 应该调整 UI 显示,以便了解信息甚至进一步操作。就像是我们在个人距离内与朋友眼神交互,打算进一步沟通一样。

近距离交互是一个典型案例,同时也是一个相对容易落地的产品功能,中距离和远距离就不一样了,当处于较远的公共距离时,Nest Hub 应该如何显示内容,由远及近走近时又该如何,是否要显示。

处于公共距离时,Nest Hub 就应该预判人的动作,以便做下一步调整

聪明的交互应该是在需要出现,而不是频繁打扰,决定显示内容变和保持不变同样重要,这些都是 Google ATAP 团队下一步要研究的内容。

作为进入个人亲密距离的产品,Nest Hub 等搭载 Soli 雷达的产品,自然也要注意隐私,人会因为亲密空间被侵犯时感到不适。

Google 为此也一直强调 Soli 雷达和摄像头不一样,它采用非入侵式的数据收集方法,并不直接收集脸部等个人信息特征,在系统中人体都是以一个个模糊的小点组成的,动作分析往往是根据小点的运动趋势。

Nest Hub 关于动作检测的数据处理都在本地运行,数据不会上传云端,减少数据泄露风险。

至于人们是否信任 Google,在数据隐私方面它的信用价值几何,则是另一个层面的事了。

几乎无感的好体验,来自 Google ATAP 团队对于人的关注,从表面的动作到深入的文化现象,电子产品开始理解人,这本身就一件极具未来感的事。

面向未来的硬件

Google ATAP,全称是 Google 先进科技与计划部门,其官网简介很好地叙述了这个团队以及落地产品的方向:

我们正在创造硬件的未来。

一家以软件闻名的公司,如何结合自己的优势研发硬件产品,从 Google ATAP 过往的产品项目就能窥知一二。

模块化手机项目(Projet Ara)是 Google ATAP 部门最知名的项目之一。

模块化手机

当时 Google 构建了一个包含电池、处理器、WiFi 通讯等基础模块组成的框架,手机框架中的大部分模块都是可以替换的,也就是说用户可以随意升级或替换旧的手机模块。

模块化手机一度被认为是一个创新且具备前景的项目,无数开发者可以进入其中构建各种模块,突破了少数手机厂商统治市场的局面。

然而,如今还在推进模块化手机项目的只有 Fairphone 等少数公司了,提供可替换的模块,手机性能限制以及第三方开发生态不完善,直接导致了 Google 将手机模块化项目搁置。

Fairphone 提供可更换的手机部件

在模块化手机项目中,Google 更多的是扮演平台运营的角色,而到了 Project Soli 项目中 Google ATAP 部门开始结合自家的优势能力了——软件算法。

在 Project Soli 项目中,Google ATAP 先是对超声波雷达系统调整优化,在保证数据准确的同时缩小体积,以便能应用在 Pixel 和 Nest Hub 这种移动设备当中。

经过多次缩小后的 Soli 雷达传感器

成型后的 Soli 雷达扮演了数据收集者的角色,手机或 Nest Hub 这样的移动设备则根据软件算法判断人的动作和手势是什么,进而改变操作。实现逻辑和如今大火的计算摄影如出一辙,硬件是基础,软件算法是体验的保证。

初代 Pixel 有口皆碑的影像能力,靠的正是计算摄影

除了 Pixel 4,Google ATAP 与多个公司合作,将 Soli 雷达融入到各种各样的产品当中,比如和服饰品牌李维斯合作推出的牛仔服,将药丸形状的 Soli 雷达传感器放在袖子里,衣服就成了一件智能产品。

用手势就能控制手机,拍照、切换歌曲、暂停播放,电话来了轻轻一按手腕就能接听,支持类似功能的还有 Konnect-i 背包。

轻轻一划衣服,就能接听电话

这些可能都不是突破性的体验变化,更像实用型的小工具,是在衣服、背包这种我们常用的穿戴产品中加上一个控制器控制手机。

我们可能也无法期待 Soli 很快普及应用到身边的电脑产品当中,但变化总是从小开始的,Nest Hub 等产品已经展现出了足够的「聪明」,去理解人。

随着 Google ATAP 团队的持续研究,让电脑理解更多人类动作,像起身视频自动暂停的实用功能只会越来越多。

随意打赏

提交建议
微信扫一扫,分享给好友吧。