苹果的AI真不如Google、亚马逊?并不,Apple Brain已无处不在
2014年7月30日,Siri进行了重大升级。
3年前,苹果公司是第一个将智能助手集成到操作系统里面的大公司。Siri并没有像其它类似工具那样独立存在。2010年发布之初,Siri的确是获得了极高的人气,但随着时间的推移,人们对于Siri的热度大减。毕竟,Siri的智能有限,经常会理解错误用户的命令,这也是Siri热度骤减的重要原因之一,而且这样的问题并不是小修小补能够解决的。
因此,在2014年7月下旬,苹果公司增加了为美国版的Siri上增加了神经网络作为它的后盾,然后到8月15号,各国版本全部上线。之前的一些技术仍在使用,比如:“隐马尔可夫模型”。但现在呢,还增加了机器学习技术,包括神经网络技术、长短记忆单元、门循环单元以及n-gram。升机过后的Siri外观看起来并没有什么变化,但其实Siri在深度学习技术的辅助下取得了重大的进步。
为了防止竞争对手们的反扑,苹果还是一如既往地对其底层技术守口如瓶,并没有公布太多的相关内容。从用户层面,人们只能感觉到Siri的错误明显减少。事实上,苹果公司表示,他们使用在Siri上的新技术,能够让其准确率有惊人地提升。
Eddy Cue说,“当时我们进行了非常仔细的检查,确保每一个小数点都点对,正是这种工匠精神,为Siri的腾飞起到了关键性推动作用。
这还是苹果公司第一次公开其Siri升级的内容,这也让人工智能圈子很是惊奇。当然,类似的科技公司都会研究人工智能,但是,苹果公司的研究方向和进度一直都不为人所知。最近,苹果公司开始大肆招揽人工智能领域的人才,收购了几家公司。似乎看起来苹果在人工智能领域已经慢了好几拍。苹果公司一直对其人工智能研究的进程和成果三缄其口,就是人工智能圈的业内人士也不知道苹果的一丝丝情况。斯坦福大学一位教授人工智能史的教师Jerry Kaplan说,“苹果根本就不在我们的人工智能圈子里。天天神秘的很,就像AI(人工智能)界的安全局一样,神龙见首不见尾。”而且他说,如果苹果公司在人工智能领域能够取得和谷歌或者脸书那样的成就的话,作为圈内人士的他们应该是会知道的。
本月初,我有幸能够有机会接触苹果公司这方面的内容。这一天,我花了很长的时间,在一个报告厅中聆听苹果高层们关于其AI的研究进程和研究结果的报告。这些高层都是大牛,比如全球市场高级副总裁Phil Schiller,软件开发高级副总裁Craig Federighi,他们也是Siri开发的最佳双人组。落座之后,他们给我了两张纸,上面列有苹果公司基于机器学习技术的产品和服务,其中有的已经发布,有的还在筹备之中。
如果你是iPhone用户,那么你就一定或多或少使用过苹果的人工智能。举几个例子,比如说,自动鉴别你的常用联系人,自动生成常用应用列表,自动添加备忘录等等。甚至在你使用地图时,在你输入酒店名称之前,自动出现你曾经住过的酒店名字。他还能给你导航,让你找到你停车的地方。这些服务,其实都是基于苹果公司的深度学习以及神经网络技术。
我感觉,机器学习已经渗透到了苹果所有的产品和服务中。用深度学习检测Apple Store里的诈骗,延长电池的续航时间,甚至还可以自动分析来自测试者们成百上千的产品反馈等等。还有智能推荐新闻,Apple Watch智能判断用户是运动还是正常步行,人脸识别以及自动进行流量数据和WiFi的切换,一键微电影制作等等。其他一些公司也有相类似的功能,但是谁也做不到苹果这样,功能强大而且安全性高。
对于苹果公司来说,人工智能已经不再新鲜,早在上世纪90年代,苹果就已经将机器学习应用于其手写识别之中。这个技术直到现在还在应用于汉字的手写识别上。当然,早些时候的机器学习也很是原始,那个时候,深度学习还不是什么热炒的概念。而现在,人工智能技术已经广泛应用于各行各业,最近,苹果也在机器学习方面开始爆发,苹果CEO Tim Cook最近也提到了人工智能。现在,苹果的高管们要介绍他们的人工智能了。
苹果特色的AI成就
Phil Schiller说,“大家可以看到在过去五年中,我们在人工智能领域获得的成就。我们的设备智能进化的速度越来越快,特别是有了A系列处理器,智能进化更是如虎添翼。苹果的后台也变得更加智能,数据处理能力也在提升,而且我们也在尽力提高各种操作的联网率。有了这些保障,我们的机器学习就有了更多的素材,我们的机器学习也将会取得更好的成果。”
没错,人工智能的确是突破性的技术改进,苹果也是在机器学习方面做出了不少努力,但是苹果依然把它作为一种商业化开发的项目,并比不上触屏技术、显示技术以及编程等的重要程度。对于苹果来说,他们并不同意机器学习是最后一个技术前沿,虽然挺多公司是持如此的态度。Cue认为,机器学习并非是唯一在过去几年改变我们人机交互的技术,苹果公司也没有更多的关于方面的未来设想。比如说,苹果不会讨论该公司是否要开发无人驾驶技术或者建设自己的类似于Netflix的流媒体服务。而且,苹果公司确定地告诉我,他们没有开发什么所谓的“天网”。
Schiller说,”使用这种技术可以辅助我们去做一些我们希望做的事情,而且能够让我们已经实现的事情做的更好,甚至可以辅助我们去实现那些原来受限的目标。随着技术的进步与发展以及我们不懈的努力,我相信我们能够走出一条我们特有的发展之路,形成具有苹果特色的风格。
人工智能技术在苹果生态系统中具有重要作用。众所周知,苹果并没有自己的搜索引擎,因而这也导致苹果拥有的机器学习的素材较少;同时,根据苹果公司对于用户隐私保护的现状来看,不愿使用用户数据也是不利于其机器学习的发展。但是,苹果公司已经找到了弥补这两个弱项的方法。
那在iPhone中和机器学习相关的组件到底有多大?苹果公司提供的答案是200MB,大小还与这里存储了多少个人数据有关(组件会自动清理老旧数据)。个人数据包括app使用习惯,和别人之间的交往,神经网络的处理的数据,语音模型以及“自然语言事件模型”。苹果可以使用这些数据作为素材,帮助其神经网络进行学习,从而更好地服务对象识别、人脸识别以及场景识别等。
苹果宣称,在这个过程中,用户的使用偏好以及历史记录等等都是私密的。
虽然苹果公司没有将其人工智能项目的每一点都提到,但我已经明白了苹果公司是如何运作其机器学习项目的了。其机器学习的成果在全公司共享,所有的产品开发小组都可以利用这项技术解决自己的问题,或者通过这个技术增加自己产品的功能。Craig Federighi说,“对于机器学习来说,并没有什么统一的管理部门,我们只是把它作为一种用在产品中,改善用户体验的技术。”
那究竟苹果公司有多少人在研究机器学习呢?Federighi慢悠悠地说,“挺多。”当然,具体数量人家肯定是不会说,这也是苹果的一贯作风。更有趣的是,这些人中的有很多在进入苹果公司之前并不是搞人工智能的。 Federighi说,“我们招募了很多在基础学科上很扎实的人,比如数学、统计学、编程以及密码学人才。这些领域的人才为我们机器学习技术的提升起到了重要的作用,很好地融入到了机器学习开发团队。虽然现在机器学习团队已经很庞大,但是我们依然需要更多具有扎实基础学科能力的人才。”
虽然Federighi没有明说,但是大家都知道,这样做是必要的。苹果的保密条例会给它自身的发展带来禁锢,苹果的竞争们会鼓励很多才华横溢的计算机科学家与世界分享他们的研究成果。Federighi说,“我们这样做实际上就是一种自然而然的事情,就是一个选择题。那么你是希望留在一个团队中,大家一起努力做出一个成果,还是希望自己独立发布自己的成果呢?”如果苹果公司的产品研发团队能够获得重大突破,那么的确是很好。但Cue说,“事实上,我们只看最后的结果。”
一部分这方面的成果来自于收购。Cue说,“我们每年都会收购20-30家小公司,主要目的就是招募人才。”
苹果最近的一次收购是西雅图的Turi公司,公开收购价格是2亿美元。这个公司的研究项目是一个机器学习插件,功能和谷歌的TensorFlow平分秋色。外界认为,这个插件既可以为苹果自己谋福利,也可以给苹果开发者们使用。
无论这些人才是从哪个公司来,苹果都可以为他们提供足够大的施展舞台,原来做不了的,现在也可以放开手脚去干了。这也一定程度上改变了苹果的产品路线图。Schiller说,“在苹果公司,创意永无止境。现在又有了机器学习作为辅助,我们就能够实现一些以前看不可能的功能。机器学习已经一定程度上开始影响产品发展的未来。”
Siri,苹果人工智能的终极体现
如果说要找最能体现苹果机器学习技术水平的,还是要数Siri。Siri最初来源于DARPA的一个人工智能助理项目。后来,其中的部分科学家一起合伙开了个公司,使用了其中的技术,开发了一款app。乔布斯在2010年说服了其创始人,从而使苹果能够收购这家公司,然后Siri就被直接整合进了操作系统。Siri的第一次亮相就是在2011年10月,随着iPhone 4S一起登台,也是当年4S的卖点之一。现在,呼出Siri已经是十分简单,人们只需要长按Home键或者对手机说一声“Hey,Siri“皆可以将Siri激活。不要小看”Hey,Siri“,它实际上也是机器学习的体现,也正是因为如此,这项功能的耗电量也不大。Siri现在已经被集成在了Apple Brian里,Siri看起来大部分时间只是在后台不声不响,但事实上,Siri一直都在工作。
Cue 说,其核心主要有4块,分别是:语音识别(听明白你在说什么),自然语言处理(知道你说这句话的目的),执行环节(完成用户请求或回答其问题),以及最后的回应过程(使用语音进行回复)。
Siri开发项目组组长Tom Gruber是跟随公司收购到而来到苹果工作的,和他一起来的另外的几位联合创始人都在2011年Siri发布以后离开了。他说,苹果用户的数据是训练人工智能的基础。“当时乔布斯告诉我,我们要做的这个东西非常前卫,而且没有测试版。他们会告诉你用户对你的应用的评价是什么,而后苹果还加入了神经网络技术。
Siri开始使用神经网络的起点是包括Alex Acero在内的几位人工智能专家的到来。Acero从上世纪90年代初就加入了苹果,开始专攻语音识别,后来还在微软研究院供职多年。他说,“我喜欢从事这方面的工作,而且也在这方面发过一些论文。但是Siri的出现让我发现神经网络可以真真正正的投入使用,而且,它的用户可不是百数量级的,而是百万数量级的。”其实,他就是苹果喜欢的那种科学家,将产品开发而非发表论文作为第一要务。
在Acero等专家入职苹果之前的几年,苹果使用的语音识别技术还是来自第三方的授权,这可不是件好事。Federighi表示,这种模式苹果也不是用了一次两次了。他说,“如果发现某种技术会促使我们开发出更好的产品时,我们将进行内部开发,从而提供我们理想中的用户体验。如果想让这个功能成为同类中的翘楚,我们则希望能够拥有它(收购等方式),同时继续进行内部开发。语音识别的发展就是一个很好地例子,我们可以借助外部力量来发展自己。”
该团队开始尝试使用神经网络来替换Siri原来的内核。 Acero说,我们拥有最大的GPU数据处理模块,而且我们提交了大量的数据。而2014年的发布会的成功证明他们的努力没有白费。
苹果公司并不是第一家将DNN技术(高级神经网络技术)用于语音识别的公司,但是苹果是和其他公司不同的是,这个语音系统可以控制整个系统,这也是苹果公司的技术优势。
Federighi补充道,“不仅仅是芯片,麦克风的设计也要向Siri妥协。包括,要设置几个麦克风,将麦克风放在什么位置,以及声音的处理等等都需要考虑。因此,相比与纯软件开发公司,我们有很大的优势。”
苹果的Siri同时也改写了输入的方式,正是有了这样的核心技术,人们可以使用语音输入代替打字,这可是惬意得多的事情。
第二个部分就是语音识别。Siri从2014年开始使用机器学习来进行进行用户的语音识别,然后一年以后发布了基于深度学习的Siri。机器学习技术大大优化了用户体验,识别用户命令也更加灵活。Cue给我们演示了一下,他拿出自己的手机,呼出Siri,然它说,“通过Square Cash给Jane转账20美元。”然后,屏幕上就显示出了他的命令。然后在又说,“给我老婆转20块!”Siri依然毫无压力地识别了。
如果没有语音识别方面的进步,那么后面需要通过大量复杂语音命令操作的Apple TV就会胎死腹中了。早期版本的Siri需要你说活的时候字正腔圆,尽可能接近书面体;但现在带有深度学习的Siri可不仅仅能够帮你推荐电影或者歌曲,甚至可以识别这样的命令“找一部有Tom Hanks参演的恐怖片”。如果Siri足够智能,那么它返回的结果就应该是“达芬奇密码”。在应用这项技术之前,这都是不可能的。今年秋天,苹果将会发布iOS 10,Siri的嗓音也会发生变化,将不会再使用第三方授权的声音。当然,使用的还是高级神经网络。Siri的声音将会有声音库的大量录音合成,每个句子都会有正确的语音和语调。机器学习技术使得Siri的声音更像人类。Acero给我们做了演示,一开始是我们所熟知的经典Siri声音,很有机器人的感觉;然后是一个新的声音,“hi,我能为你做点儿什么吗?”语音流畅而且根本听不出是机器合成的声音。为什么会有这样的改变,很明显,机器学习起了作用。
看起来仅仅是进步了一点点儿,实际上,给用户的体验是很不一样的。
人们更愿意使用Siri以及机器学习技术的升级,已经变得比开放给其他的开发者们更加重要。给开发者开放Siri的接口的确是迟到的福利,其他很多大公司,比如亚马逊的Alexa,宣称其有1000多项二次开发。而对于苹果来说,这个数量用两个手就能数过来。苹果说,Siri和Alexa并没有可比性,如果想要对于Alexa进行二次开发,必须使用特定的语言,而Siri则会像SquareCash 或者 Uber那样,很自然地嵌入系统中。其竞争者Viv,创立者也是当时Siri的联合创始人,宣称他们的技术也可以无缝集成,但是暂时还没有产品化的设备来证明。
与此同时,苹果报告称,Siri的升级也为用户带来的更好的体验。用户们发现,Siri又增加了新功能。Cue说,“现在人们使用Siri越来越频繁。因此,我们需要让Siri更好地为用户服务。比如说,我喜欢运动赛事,我们就可以问Siri,今天哪个球队会赢得比赛?我都不知道,而它就会告诉你答案。”
人工智能Vs.隐私
也许,苹果使用机器学习最大的问题是如何保护用户的隐私。苹果加密了所有的用户信息,因此所有的人,包括苹果公司自己甚至说是FBI都无法查看信息。而且其承诺,不会将收集到的用户信息作任何宣传用途。
实话说,苹果对于隐私保护的行为对于招募人工智能人才来说,并不是好事,通过前面,我们也知道了,机器学习要想发展,数据素材十分重要。但是考虑到保护隐私的问题,在这方面苹果可能会有些限制,那这样做到底是正确与否呢?我们只能说,苹果公司并不打算在人工智能方面成为发烧友。
而对于苹果的高层来说,他们认为并不需要将用户的信息保存到云上或者收集用户的行为数据,就可以获得机器学习所需要的素材。“他们那种要想发展技术就必须牺牲隐私的观点是错误的,我们公司正在为其他人做榜样。”
这主要包括两个方面。一是个人信息处理的过程,究竟神经网络处理个人信息的具体过程是什么?第二点是收集信息。如何做到使用神经网络鉴别,从而只收非隐私信息呢?
苹果宣称,这两个问题他们都已经找到了解决方案。Cue说,“有的人可能认为我们做不到这一点,但实际上,我们已经找到了可以既收集数据又可以避免隐私泄露的办法,保护用户的隐私是我们的红线。解决方案是充分利用其特有的软件和硬件系统,从而可以既收集数据又可以避免隐私泄露。简单地说,大部分隐私信息只会保存在Apple Brian里。Federighi说,“机器学习在本地处理隐私信息。”他以常用应用列表作为例子。在苹果手机上会有常用应用的列表,当你想做滑动手机时就会看到。这种预测基于多种因素,很多都是用户的个人偏好。但是,这种预测很有用,90%人都会发现这种预测是有用的,苹果在用户的设备上完成了计算。
在本地保存的数据还有一块就是键盘键入的单词。这些单词通过神将网络的处理,系统可以自动分析出来一些类似于航班信息、联系人以及预约等。但这些信息都是在用户的手机上,并不在苹果的云服务器里。
而且苹果也在尽可能减少其信息的存储量。Federighi提到,用户的对话中可能会触发搜索,其他公司如果想进行分析,必须要将整个对话都分析一遍,从而找出关键词。而苹果设备不需要上传数据就可以做到这一点。系统会持续和存储在手机中的数据进行比对。
Federighi说,这个数据库里的东西密度十分高,而且包含面非常广。有成百上千的地点和条目。我们将其本地化的原因就是我们知道你在哪里。这个知识库所有的苹果应用都可以调用,包括:Spotlight 搜索, 地图, 以及 Safari浏览器。而且还可以帮助用户自动更正,这个数据库一直在后台自动运行。
如此关注隐私,那么会不会对机器学习产生不良影响呢?这也就是回答上面的第二个问题。神经网络系统需要大量的训练才能保证其准确性。而苹果又愿意追踪用户的所有行为,那怎么办?苹果公司的做法与其他很多公司的做法相类似,就是苹果利用公开信息进行神经网络的训练。但有的时候不得不使用一些实时的、特定的数据,这个时候,苹果会将数据匿名化,确保任何隐私数据都不会被关联到特定的Apple ID上。从iOS 10 开始,苹果将采用一种差异化隐私技术,通过这个技术苹果公司将不识别其信息来源。通过对于数据的分析,苹果公司就可以了解,在其Apple Brain中尚不存在热词,对于一些问题更加贴切的回答方法,甚至是哪一些emoji表情最近更加常用。“传统的收集数据的方式就是记录你输入的每一个单词或者每一个汉字,并将其传到服务器。然后进行处理,分析结果。我们的做法并不相同,我们会进行加密。Cue说,“我们会将差异化隐私技术应用到更广阔的空间。”
Federighi表示,“我们从好多年前就开始开发这一项技术,在这方面也付出了挺大的努力,已经可以大规模应用了,而且这项技术对于个人隐私的保护还是很给力的。、
很明显,机器学习已经改变了苹果的产品,但是会不会影响苹果公司本身还不得而知。事实上,使用机器学习技术并不符合苹果公司一贯的作风,苹果公司向来都是将工匠精神发挥到极致,将用户体验提升到最佳,就连监测屏幕滑动的传感器都是精益求精。所有的东西都是预先设计并且精准编程过的。但现在,工程师们开始使用机器学习,那也就意味着他们必须做出让步,给软件自身一些空间。不知道苹果能不能同意让机器学习系统也成为软件开发的参与者。
也许最终的结论就是:苹果并无意全面进军机器学习技术,但是,苹果也不介意搭上机器学习的顺风车,为自己的产品谋福利,在我们手机中的那个Apple Brain就是最好的证明。
Schiller说,用户一般来说每天都会体验到机器学习带来的方便,而这也是用户喜欢苹果产品的原因。经典的桥段就是:前几次你都没有发现机器学习的存在,到第三次使用时才猛然发现,然后你就会停下手中的活,想一想,这究竟是如何做到的呢?
所谓的“天网”或许也不远了吧。
你的项目也想被报道, 点击这里 ——猎云网
http://www.lieyunwang.com/archives/210674