Google I/O盘点 这才是地球上最「性感」的发布会
(原标题:Google I/O 完整盘点,这才是地球上最「性感」的发布会)
提前两个半月申请邀请码,提前一天领取胸牌并预约座位,提前两个半小时排队候场,终于在开场前一个小时之时,我们进入了Google I/O 2017的主Keynote会场。
持续不断的尖叫和欢呼,随处可见的自拍与合影,即使是在开场的前一刻,我们都能感受到这个全世界科技领域最吸引人的大会是怎样的令人心潮澎湃。开场前的 DJ打碟以及气球游戏也许不太得你的胃口,但没关系,后面两个小时的高质量内容输出证明,这也许仍然是今年最值得你关注的技术大会。
下面我们将帮你全面梳理一下今天凌晨的 Keynote 环节,在大约4分钟的观看视频或10 分钟的阅读时间里,你将对那两个小时中发生的事有一个完整的了解。
Google Lens:全新的 AI 视觉搜索应用
首先,Google CEO Sundar Pichai 在 I/O 上发布了基于图像识别和 OCR 技术的人工智能应用 Google Lens。
据 Pichai 在会上所说,这项新技术会首先应用在 Google Assistant 和 Google Photos 上,未来还会有更广泛的应用。Google Lens 的意义在于,它让智能手机不仅仅能够看见世界,它还能看懂摄像头里的一切,并帮助你采取一定的行动。
在现场的演示中,Google 展示了这项新技术的一些应用:
最简单的,你可以用它进行物品识别,包括花朵等植物的种类也可以识别出来。
Google Lens 还有一些更加智能的功能,比如在手机连 Wi-Fi 时,可以将摄像头对准路由器上的资料,Google Lens 就能自动提取 Wi-Fi 的账号和密码,然后提供一键连接的选项。
除此之外,它还能智能识别街边商家信息,自动完成信息的检索。
此外,在 Google Photos 应用中,Google Lens 还可以帮助识别图像中的建筑等内容,并能够做到简单的图像文字识别。
其实,Google Translate 早已有了类似功能的应用,在 Google Translate 的手机应用里,打开摄像头对准一段英文就可以在相机界面上得到类似字体的中文翻译。
不过,尽管官方明确 Google Lens 会首先搭载在语音助手和相册应用上,但 Google 还没透露具体的日期,只是说了会在近日发布。
Google Assistant:终于登陆 iPhone
Google Assistant 自从去年发布以来,一直担任着 Google 人工智能在大众市场上应用和普及的重任。理所当然,今年的 Google I/O 给了 Assistant 不少的戏份。
据 Google 提供的官方数据,全球已经有超过 1 亿的设备用上了 Google Assistant,包括各种搭载安卓系统的智能手机、手表和平板电脑,当然,还有 Google Home。
这个数据当然是十分喜人的,然而 Google 并不满足:Google Assistant 要登陆 iPhone 了,将支持安装了 iOS 9.1 以上版本的 iPhone。
除了支持 iPhone,Google 还准备了很多功能上的更新。
首先,据 Google 官方的统计,在 Google Assistant 这一年的使用中,有 70% 的命令是通过自然语言发出的,因此 Google 为语音助手增加了文字的交互功能,你可以像聊天一样告诉 Google Assistant 要做什么。
其次,Google Assistant 终于可以安排日程、设置提醒了。安排日程的功能即日就可以上线,但提醒事项还需要再等等。对于一个语音助手来说,日程安排和提醒功能是最不应该缺失的,Google Assistant 在这方面确实比微软和亚马逊的语音助手慢了好几拍。
此外,用户现在可以通过 Google Assistant 控制更多的智能家居设备。Google 已经与 70 多家智能家居厂商达成了合作,用户可以通过 Google Home 和安卓设备控制他们的智能产品。
Google Assistant 的语音命令更加强大了。用户可以通过 Google Assistant 直接在 Google Home 上打电话;连接到智能电视上,用户还可以直接命令 Google Assistant 播放一首特定的音乐和视频。
第三方服务可以接入 Google Assistant 了,这与 Facebook Messenger 的 Chatbot 很像,在 keynote 上,Google 演示了通过语音助手点外卖的应用,看起来体验相当不错。
另外,配合刚刚推出的 Google Lens,Google Assistant 能够帮助用户识别周边的信息。比如,当你看到自己喜欢的乐队打出了一张演出海报,你可以点击 Google Assistant 上的 Lens 图标,拿摄像头对准海报,Google Assistant 就可以帮你获取这支乐队演出的票务信息。
Google Home:硬件无更新,软件大升级
在硬件基础没有升级的情况下,Google Home 新版加入了大量有用的新功能。首先就是「屏幕」的加入,这个屏幕是指连接到 Google Home 上的电视和手机屏幕(或者任何显示设备),而并非之前 Echo Show 那样自带屏幕的策略,Google 称之为「Visual Responses(视觉反馈)」。
当你需要屏幕交互时,你可以和 Google Home 音箱对话,并让结果显示在你的手机上。如果你想要看电视,任何一台使用 Chromecast 连接的电视,都能成为具有 Google Assistant 语音功能的设备。
这意味着,你不但能让 Google Home 播放你喜欢的音乐,而且终于可以对着它说出你想看的视频了。你还可以在电视上看到天气和日程,把你想要做的任何事推送到电视机上,Google Home 成为了家庭中连接所有屏幕的智能终端,它不再像 Echo Show 那样只是一小块紧凑的屏幕,而是有了更大的施展空间。
另一项重大升级是 Hands-Free Calling,也就是期待已久的打电话的功能,例如当你说出「Hey Google,call Mom」时,它会直接从你的电话簿上给你妈妈拨打电话。而语音识别技术能够识别出是谁说出了这句话,所以同样的一句「Hey,Google,call Mom」对不同的人,Google Home 听到以后会打给不同的对象。
显然,这次的每一项功能更新,都是在向老对手亚马逊 Echo 发出挑战,也许,相比亚马逊 Echo 只在美国、英国和德国出售,这一次 Google Home 登录英国,加拿大,澳大利亚,法国、德国和日本等国家会成为一项优势,不知道 Echo 系列接下来又会怎样应对呢?
Google Photos:让分享更智能
Google Photos 一直是很多人的私人照片库,这次带来三种全新的照片分享方式,帮助用户把生活中最有意义的时刻分享给亲友。
第一种是 Suggested Sharing,通过机器学习技术,Google Photos 会帮你自动筛选出正确的照片,根据照片内容建议你分享给谁,只要点击发送,亲友就可以看到你的照片。
第二种是 Shared Libraries,对于某些照片你可能只跟特定的人分享,用户可以主动把一些照片分享给特定好友,好友会自动收到这些照片。
第三种是 Photo Books,Google Photos 的图像识别技术可以把你最好的照片选出来,自动去除掉重复或者质量差的,然后组成一本相册,你可以打印成实体相册留作纪念,售价 9.99 美元起。
这些功能都会在未来几周内推出。
YouTube:更多用户,更多互动
YouTube 产品人员登台算是出人意料的惊喜,CEO Susan Wojcicki 上台后,先用一段惊心剪辑的视频,显示出 YouTube 用户群体的广泛性和影响力,然后她介绍道,YouTube 的日观看数已经超过 10 亿人次。
对于拥有如此广泛用户基础的视频网站,接下来还能怎么玩?YouTube 的回答是「互动性」和「增值服务」。
为了进一步提升用户和视频的交互性,YouTube 加入了 360 度视频的功能,拿着遥控器,你就能在视频中进行 360 度的视角转换,你可以在电视机上,看到与以往不同的风景,也可以在看演唱会直播时有更加身临其境的感觉。
另一项则是名叫「Super Chat」的服务。由于 YouTube 视频直播在过去一年有了 4 倍的增长量,因此,在视频直播中增加了新的「打赏」玩法。
简单来说,就是你可以掏出真金白银来支持你喜爱的主播,并且在聊天中获得一些更醒目的标志作为一定的特权。今年四月的关于「怀孕长颈鹿生产」的直播中,为长颈鹿捐款的金额就超过了数千美元,这和我们国内通过付费买礼物的方式给喜欢的主播是一个道理,只不过,Super Chat 上面「打赏」使用的是美金。
Android O:为了下一个 10 亿用户
就在今年三月份,Android 首次超过 Windows 成为第一大操作系统,但很多事情还无法在手机上完成。
Android O 将让你在小的屏幕上完成更多的工作。利用画中画,你可以无缝地在两个任务间切换,Android 对分屏和多任务的结合进行了更深层次的优化。
利用机器学习,在双击文字时会自动识别出有意义的信息,比如电话、地址、邮件,点击就可以直接进入拨号、地图等应用中。
为了保护 Android 设备安全,谷歌推出了 Google Play Protect,内置于每个安装了 Google Play 的设备中。Play Protect 会自动更新,检测并删除可能有害的应用。同时 Android 还推出了「查找我的设备」功能,允许用户对设备进行定位,响铃,锁定和清除等操作。
为了让开发者能够开发出更优秀的应用,Android 开始支持新的编程语言 Kotlin,开发人员的生产力能大幅度提升。
Android 系统涵盖了从入门到高端的各种设备,为了让 Android 入门设备的价格更低,谷歌提出一个叫 Android Go 的新项目,目的是让更多的低配置的设备能够运行 Android。
主要通过三个方面来实现:Android 系统,Google 应用和 Google Play 商店。从最新的 Android O 开始,就能在入门设备上顺利运行。应用方面专门做了优化以减少内存占用,如 YouTube Go,Chrome 和 Gboard。在 Play 商店的一个版本中,会突出显示这些优化过的应用,同时也提供全部的应用目录。
这三个举措将同时进行,从 2018 年开始推出。
AR:在室内定位中派上用场
2014 年 6 月,Google 的 AR 平台 Tango(此前叫 Project Tango)正式亮相。Tango 通过手机的摄像头和处理器配合,能够对环境进行实时建模,并将现实世界和虚拟图像结合起来,进而实现各种各样的 AR 功能。
今年年初,Google 的 AR 平台 Tango 平台的负责人 Johnny Lee 表示他们已经并入了 Google 的 VR 部门。虽然这次他并没有出现在 Google I/O 的舞台上,但是 Tango 的一些最新进展依然值得我们关注。
Google 宣布 Tango 项目将和 Google Map 合作,推出一项室内定位服务 VPS(visual positioning service),它可以在没有卫星信号的室内也能精准定位。
「这项技术将在很多场所都能派上用场。」Google 表示室外定位依然是 GPS 的天下,但是在室内 VPS 还有很大的发展空间。配备此项技术的第二代 Tango 设备将在今年夏天和大家见面。
值得一提的是,本次 I/O 大会上 Google 还表示将把 Tango 设备普及到校园中,从这个角度来看,和早前推广 Cardboard 的方式非常类似。
VR:Google 终于也做 VR 一体机了
虽然进入到 2017 年国内的 VR 市场趋于平静,但对于 Google 来说 VR 仍然是非常重要的战略阵地。首先,谷歌 VR 负责任人 Clay Bavor 宣布:三星 S8、S8 Plus 和 LG 即将发布的旗舰机将支持 Google Daydream VR 平台。
在 Google I/O 2016 上,移动 VR 平台 Daydream 正式亮相,它由智能手机(Andriod N)、VR 盒子(包括手柄)和内容(应用)三大核心部分组成。 DayDream 从系统底层解决了移动 VR 渲染时延的问题(<20ms),再加上其模拟鼠标指针的交互功能,大大提升了移动 VR 的体验。
过去以来,Google 一直在「VR 盒子」方面进行研究,这一次 Google 终于带来了不需要手机或 PC 辅助运算的独立 VR 一体机(standalone VR headset)。两款 VR 一体机将由合作伙伴 HTC 和联想出品,技术支持则来自于在 VR 一体机领域已经颇有建树的高通。
Google 的 VR 头显将支持 inside-out 位置追踪(Tango 上用的技术),配备有和 Daydream View 类似的手柄,除此之外没有公布更为具体的参数信息。两款设备将于今年年末正式发布。去年 10 月,由 Google 亲自操刀的「VR 盒子」Daydream View 正式发布。再加上这次发布的 VR 一体机,Google 在 VR 硬件上又谨慎地迈进了一步。
前不久,Google 宣布将 VR 游戏工作室 Owlchemy Labs 招入麾下。成立于 2001 年的 Owlchemy Labs 在 VR 内容方面颇有建树,《Job Simulator》和《Rick and Morty VR》等游戏获得了业界和玩家的高度认可。
丰富了硬件设备,扩充了内容团队,Google Daydream 未来的表现值得我们期待。
Google.ai:展现 AI 最好的一面
Google 今天新发布了第二代的 Tensor 处理单元(TPU),这是一个云计算硬件和软件系统,它将上线 Google Cloud,被称为 Cloud TPU,主要是为了提高机器学习计算处理所需要大量的负载,包括训练和推理,这个可以说是为 Google 云计算平台带来的巨大福音。
由于 Google 在硬件与软件的集成方面的实力,TensorFlow 目前已经成为构建 AI 软件最领先的平台之一。而 TPU 则是作为专门为机器学习而专门设计的专用芯片,第一代 TPU 被 AlphaGo 人工智能系统用作其预测和决策的基础。
这次新的 TPU 设备可提供高达每秒 180 万亿次浮点运算的性能。然而为了让这些 TPU 更强大能够更好地一起工作。Google 为每个 TPU 设计了一个定制的高速网络,可以组合构建一个名为「TPU pod」的机器学习超级计算机。每一个 TPU pod 包含 64 个第二代 TPU,将 Google 服务器变为了具有每秒 11.5 千万亿次(petaflops)浮点计算能力的超级计算机,这样也是为了加速对单个大型机器学习模型的培训。
而这些都将在未来的 Google 云计算引擎上提供,而关于 AI 相关的所有内容都会在新上线的 Google.ai 上展现,Google CEO Sundar Pichai 也表示「我们希望让成千上万的开发者都能够使用机器学习,并且通过神经网络产生其他神经网络来进一步改善 AI。」
One More Thing
凌晨 2 点 52 分,Sundar Pichai上台,在为大家展示了一段视频之后,开始介绍名为「Google for Jobs」的新功能,这是基于 Google 深度学习技术而开发的能力,当你打开 Google 想要找工作时,在搜索框中进行「工作」检索,你会看到一个新的 UI 界面,除了看到不同工作,下面还会有不同的标签分类,帮助你快速了解不同种类的工作。
它不光会通过标签让人更容易找到适合自己能力的工作,而且,伴随着对你搜索习惯的学习,你之后的每一次搜索,都会对你找到最适合的工作起到帮助,系统也会在你搜索时提供更好的建议,当然,这一切都要基于 Google 的深度学习技术。不过,对于这样越用越好用的搜索助手,我们在国内恐怕是暂时无缘了。
纵观今年 I/O 的 Keynote 环节,虽然没有像 Google Glass 这样令人惊喜的黑科技产品出现,但对于普通用户来讲,却有不少值得期待的新功能、新技术,比如 Google Home 中的 Hands-Free 打电话功能、Google Lens,以及将 Smart Reply 带入 Gmail 等等。所有这一切都让习惯于使用 Google 服务的用户能获得全新的智能化体验,让他们对于我们未来的智能生活有领先于他人的体验和理解。
同时,对于开发者来讲,Kotlin 成为 Android 官方语言无疑是一个极大的惊喜,在这个消息发布的时候,现场爆发了也许是今天最热烈的掌声和欢呼声。此外,不管是第二代 TPU 芯片的发布亦或是 TensorFlow Lite 的出现,所有致力于机器学习技术的开发者都将从中获益匪浅。
所有的一切都显示,「稳扎稳打」成为了 Google I/O 今年的主旋律,没有那些过于激进的项目与技术,但在人工智能这样的决定性领域中,Google 正在从计算平台到应用等所有方向上稳步前进。
所以,这个行业的未来正在 Mountain View 这座小城上演,不要离它太远了。