人工智能四大应用领域的商机在哪里,美国人工智能技术主管为你支招!
【编者按】转眼间人机大战已有21年历史,人们对 人工智能 的期待绝不是一次又一次的在象棋和德州扑克领域打败人类,而是期待这种技术能够为人类在各领域的发展带来更多可能性。本文作者 人工智能领域的资深投资人龙滔,将人工智能应用分成物理世界应用、数字世界应用、物理世界的非关键性应用、数字世界的非关键性应用四大类,结合 美国人工智能年会 (AAAI)上 8家科技公司人工智能的技术主管在各自领域的技术进展进行了深入的分析,指出了目前人工智能在实践应用方面的难点及相关领域创业公司的发展机会。
本文发自“硅谷密探”,作者:AI严肃说,亿欧转发,供业内人士参考。
从实际应用角度来看,关键性的应用几乎不允许发生错误,一旦发生故障可能造成人员和财产损失,所以对整体系统包括硬件和软件的可靠性要求非常高,实现难度也随之加大。
而面向物理世界的应用,要求系统的鲁棒性强,能够处理物理世界的各种不确定性和复杂性。
因此,从数字/物理世界、关键/非关键应用两个维度来分析,人工智能的应用分成四大类:
第一类是发生在物理世界的关键性应用,比如 无人驾驶 ,毕竟人命关天。
第二类是发生在数字世界的关键性应用,比如涉及到金融领域和计算机安全领域的问题,可能直接造成财产损失。
第三类是发生在物理世界的非关键性应用,比如扫地 机器人 。
第四类是发生在数字世界的非关键性应用,比如推荐系统。就商业应用路线而言,一般规律是从数字世界的非关键应用开始,逐步渗透到物理世界的关键应用。
发生在物理世界的关键性应用
总体而言,发生在物理世界的关键性应用技术难度非常大,比如高级别的无人驾驶,是需要长时间的培育和等待的领域。
“AI in Practice”的演讲者之一,来自谷歌的Vincent Vanhoucke以及Waymo(谷歌的无人驾驶公司)的Dimitri Dolgov都分享了一些研发机器人和无人驾驶的经验和教训。
Vincent所带领的Google Brain团队目前工作主要集中在三个领域:语音识别、计算机视觉、机器人。而Dimitri引用了加利福尼亚车管局(DMV)提供了2016年关于无人驾驶里程及失灵( Disengagements )的数据(失灵时需要人类司机来驾驶),这个数据也基本验证了无人驾驶的难度。
失灵比例最低的是谷歌,每5128英里失灵1次,可以想象的是,谷歌无人驾驶的测试数据依旧是在一定的限定环境下,特斯拉则是3英里就失灵1次。
即使是按照谷歌无人车现在这个数据,在驾驶如此高频的情况,离完全的无人驾驶(Lever4or5)还有很长一段距离。
按照长期以来的工业界的实践,把可靠性从90%提升到99%,往往比0%提升到90%难很多,然而从99%提升到99.99%比从90%提升到99%更难,而我们对无人驾驶可靠性的要求可能要超过99.9999%。
实现固定场景的几个英里的无人驾驶距离实现高级别无人驾驶还有漫长的一段路要走,此外无人驾驶汽车从设计到生产的周期还需要额外的3到5年的时间,该行业的创业公司的周期会非常长。不过值得一提的是,限定场景(比如高速公路)下的无人驾驶或者辅助驾驶依然很有意义。
Vincent Vanhoucke演讲的最后一部分集中在机器人!他说之前还没进入机器人领域时,看到DARPA挑战赛中机器人的各种摔倒镜头会大笑,然后真正开始接触之后,就再也笑不出来了。机器学习的研究人员会想当然地认为机器人已经大规模使用机器学习技术、想当然地认为机器人和环境状态完全已知、想当然地认为样本充足、想当然地认为计算机模拟十分逼近真实物理世界。从这个角度, 机器人领域给机器学习提供了很多有意思的话题。
第一:如何协调感知和执行是机器人的关键。
机器人的感知是软件层面,而执行则是机械层面。做算法的不懂机械,做机械的不懂软件往往是业界共同面临的问题。
第二,如何提高样本的有效使用再次成为核心问题。
发生在物理世界的训练样本往往获取非常困难,以机器人手臂随机抓取物体的实验为例,Google为了获得训练样本,只能以14台机械臂在那里日夜不停地获得训练数据。如何高效率的获得样本,或者是高效能的使用样本,将是极其核心的问题。
第三:机器人领域涉及强化学习、无监督学习、主动学习。
对于机器人领域的核心技术强度学习,特别是深度强化学习( Deep Reinforce Learning ),几乎所有我们拜访的工程师,包括Vincent一致认为技术实现的难度非常大。
第四:闭环控制系统对于改善性能极为必要。
第五:需要新的数据结构,用于表示运动学链接(Kinematic chain)、图像的卷积、运动轨迹。在之后的问答环节,他对迁移学习抱有厚望。
老牌的IBM业务多元化、而且绝大部分是面向 企业服务 市场( to B )。因此,Michael Witbrock提出对于人工智能领域的研究路线更为系统、同时也更为传统。
他提到对世界的大规模建模,由之前明确的、符号化的、分解的建模方式,逐渐融合隐形的、统计的建模方式。例如之前机器人动力学方程中对于摩擦力这类非线性变量的建模和求解时,难度就不小。
IBM强调了符号主义的重要性,认为知识表达、逻辑在解决复杂问题中非常重要。
基于逻辑的传统知识表示值得引起我们的重新思考( Rethink )。
IBM在此方面的研究优势是既有硬件,又有软件。在整个IBM的研究人员Michael Witbrock演讲中,他很自豪地介绍IBM过去在人工智能领域取得的进展,并且已经广泛部署到多个领域,其中有一项是在人力资源领域的应用。
对比一个国内的案例,某乳品巨头的人力资源负责人在谈到人工智能在人力资源领域的应用时不屑一顾地谈到人力资源的工作富有人情味,冷冰冰的机器如何应对。其实,LinkedIn的职位招聘不也是人力资源的一部分吗? 传统行业如何面对高科技的进步,被颠覆还是主动整合,看似简单的答案要落到实地并不容易。
值得重视的是,随着人工智能应用入侵传统行业,通常需要对控制对象所处的物理环境建模,这一块是比互联网更广阔的天地,机会更多,当然也更难。
发生在数字世界的非关键性应用
从实现难度而言,发生在数字世界的非关键性应用最容易发生,实际上推荐系统就是一个很好的例子,一方面大家对推荐商品的准确性相对宽容。
发生在数字世界的非关键性应用挤满各种互联网公司巨头,创业公司在这个领域想有所作为也很难,或许还有垂直领域有些机会。而创业公司如何突破人才、数据、计算资源的局限,寻找生存空间值得进一步探讨。
代表Quora出场的Xavier Amatriain恰好就回答了这个问题。Quora是家是中小型的创业公司,是美国的问答网站( 类似于国内的知乎 )。Quora只有85位技术工程师,其中仅仅两位研究员。人才寥寥、计算存储资源不多、数据也不是那么充足,
创业公司怎么能够避免一些技术弯路,正确应用人工智能技术呢?Xavier总结了他这么多年在机器学习实际工作的一些教训。
1、更多的数据还是更好的算法?
Xavier认为更好的算法更为重要;
对于小公司而言,本身数据量就少,而获得标记的数据更是需要额外的成本。小公司堆数据肯定是堆不过大公司,所以选择把精力放在优化算法上往往比选择把精力放在获取数据上更高效, 当然一方面小公司也需要不断地积累数据。
2、复杂模型还是简单模型?
Xavier认为模型和特征选取需要匹配;
模型不是越复杂越好,在创业公司往往是不管黑猫白猫,能抓到老鼠就是好猫。根据界定的问题,选取与特征相匹配的模型。
3、什么情景下用监督学习还是非监督学习?
Xavier认为非监督学习可以降低维度、并对特征做工程突破。在某些情况下,将监督学习和非监督学习结合,效果出奇的好;
4、多种算法的组合还是单一算法?
Xavier提出应该尽可能使用组合算法,不同于强调原创性的学术研究,创业公司更需要“拿来主义”,只要能用上,多尝试不同的算法组合来提高准确率是个明智的选择。
5、不要将一个模型的输出作为另一系统的输入
Xavier警告说这会是系统设计的噩梦。
发生在数字世界的关键性应用和发生在物理世界的非关键性应用
发生在数字世界的关键性应用和发生在物理世界的非关键应用对创业公司而言是机会比较多的领域。比如将人工智能用于金融领域和安全领域。又比如扫地或是玩具机器人是一个典型的发生在物理世界的非关键性应用。这两个领域是创业公司最有机会的。
人工智能颠覆性的理论突破仍需等待
通过神经科学或是其他学科与计算科学交叉,寻找人工智能新理论的突破仍停留在理论研究阶段。
虽然深度学习已经获得不少进展,然而大家至今很多领域依旧是知其然而不知其所以然,而人工智能其实理论研究获得的突破依旧。
对于现在基于概率和数理统计的深度学习而言,纽约大学神经科学教授Gary Marcus希望从神经生物学的角度寻找人工智能的突破。 他刚刚加入新成立的Uber AI Lab。我们在此断章取义地引用他的观点,“目前对于人工智能最大的担心是技术发展停滞不前”!这也是我们所担心的。
在近几年深度学习的浪潮中,人工智能领域的进展更多是工程推进,而不是理论突破,尤其是海量数据和超大规模的暴力计算。 正如Peter Norvig曾经谈到Google在人工智能的出色表现时,就评论到“我们没有更好的算法,我们仅仅是有更多的数据”。
而对于通用人工智能(Artificial General Intelligence),Gary继续批评过去几十年徘徊不前。现阶段的智能不能像人一样阅读、理解、推理,无人驾驶的安全也不足以让人信服……
人工智能研究的道路依旧任重道远!