在性能和应用之间,人工智能需要找到一个平衡点
【编者按】 人工智能 有别于 O2O、 智能硬件 、VR等几轮风潮,它是一种技术,通过与各个行业结合落地到具体场景。那么,在项目落地的过程中,该如何权衡性能与应用之间的关系呢?近日,哈佛商业周刊最新的一篇评论文章,也许能帮您解答这个疑问。
本文转载自《Havard Business Review》 ,新智元翻译, 原文作者 Ajay Agrawal/Joshua Gans/Avi Goldfarb;由亿欧编辑,供行业内人士参考。
不同工作,对错误的容忍度不同
麦当劳的收银员不需要太多培训就能上岗。即使是上班第一天,大多数收银员也能胜任工作。工作时间越长,他们就越有经验。虽然新人可能有些慢,比起老员工,错误会多一些,但整体来说,大家都相信他们会从经验中学习提高。
我们一般不这么想,但其实商业飞行员也是这样。我们坐飞机感到放心,是因为航空运输飞行员认证是由美国交通部联邦航空管理局管理的,要求飞行员最少拥有1500小时的飞行时长,500小时的国际航班经验,100小时的夜间飞行时间,还有75小时的仪表操作时长。不过我们也知道,飞行员的成长也需要工作经验。
2009年1月15日,当美国航空1549号航班被一群加拿大鹅击中后,在所有发动机关闭的情况下,机长Chelsey“Sully”Sullenberger奇迹般地将飞机降落在哈德逊河上,拯救了所有155名乘客的生命。大多数记者将他的表现归功于经验。他拥有19,663小时的飞行时长,其中A320飞机的飞行时长达到了4,765小时。Sully自己说:“可以这么看,42年来,我一直在一个叫做经验、教育和培训的银行中持续做着小额定期存款。1月15日那天,数额攒了不少,于是我提了一大笔钱。”Sully和他所有乘客,都应该感谢以前陪Sully飞过的那数以千计的人。
在收银员和飞行员之间,“胜任工作”的判断标准是有差异的。这种差异基于对错误的容忍度。 很明显,对飞行员来说,容忍度要低得多。 这体现在他们服务第一批真实客户之前,我们要求他们积累的训练时长上,即使他们真正上岗后会随着经验的增长而提高。对于不同的职业,我们对于接受多长时间的培训就算“胜任工作”了,有着不同的定义。
机器学习也是如此。
AI应用是基于预测的。传统的编程算法遵循指定步骤处理数据,输出结果。但机器学习不同。作为当今AI技术的主要方法,机器学习算法会在学习过程中持续进化。 给机器以包括结果在内的数据,它会找到其中的关联,根据这些关联,机器可以处理它从未见过的数据,并给出预测结果。
这意味着智能机器需要接受训练,就像飞行员和收银员一样。新员工在公司的培训体系中变得可以“胜任工作”,之后走上工作岗位,随着工作经验的积累持续提高。在这一过程中,判断何时可以“胜任工作”是个重要决定。 就 机器智能 来说,这可能是个和时机有关的重要战略决策:何时从内部训练转换为实际工作过程中的学习。
需要寻找一个 平衡点
对于机器智能何时算是“胜任工作”,没有现成的答案。我们只能去寻找一个平衡点。机器智能应用的成功有赖于认真地去寻找这些平衡点,并富有策略地与这些平衡点相靠近。
公司必须搞清楚的首要问题是他们和他们的客户对错误的容忍度是什么。我们对一些智能机器有很高的错误容忍度,而对另一些则很低。 例如,Google的Inbox应用程序读取你的电子邮件,并使用AI来预测你对某封邮件将作何反应,然后生成三个简短的响应选项供用户选择。即使有70%的错误率(即AI生成的响应仅在30%的时间内有用),许多用户还是声称自己很喜欢使用这一应用程序。这种高容忍度的原因在于,减少撰写邮件和打字之利超过了响应预测错误时浪费的屏幕空间之弊。
相反,我们对和 无人驾驶 有关的错误容忍度就很低。 主要由谷歌率先研发的第一代无人驾驶车辆,使用了专业的人类车手进行训练。他们驾驶着有限数量的车辆,进行了数十万公里的道路实测。这就像父母在让孩子自己开车上路前,会先坐在副驾驶上监督他们一段时间。
专业的人类车手提供了安全但同时又非常有限的训练环境。机器只能接触到一小部分路况。人在学会如何应对更可能导致事故的罕见事件之前,或许已经在不同的环境和路况下开了数百万英里。对于无人驾驶的车辆来说,真实的道路复杂又无情,因为人为因素造成的复杂又无情的路况会影响到它们。
那么第二个问题就是,要在真实环境中获取用户数据有多么重要。正因为知道训练可能需要很长时间,特斯拉在最近所有的车型上都配备了自主驾驶功能。这些功能包含了一组传感器,用于收集环境数据和驾驶数据,并上传到特斯拉机器学习服务器。在非常短的时间内,特斯拉可以通过观察其汽车驾驶员的驾驶状况来获取训练数据。道路上的特斯拉车辆越多,特斯拉的计算机就学的越多。
然而,除了在人类驾驶特斯拉汽车时被动地收集数据,公司还需要无人驾驶的数据来了解其系统的运行,以评估其性能,同时评估安全司机的干预时间。 特斯拉的最终目标不是制造一名副驾驶,或是一名在监督下开车的青少年,而是完全自主的车辆。这就需要真正做到让人们在无人驾驶的汽车中感到舒适的地步。
何时让机器到真实环境中学习?
这个平衡点并不容易找到。 特斯拉需要机器在实际路况下学习,但将现有车辆置于实际路况下,意味着给予客户一个相对“年轻和缺乏经验”的驾驶员——尽管可能已经比许多年轻的司机更好。不过,这比beta测试的风险还是高多了。Siri或Alexa是否理解了你说的话,或是谷歌Inbox是否正确地预测了你对电子邮件的回应,这些风险并不大。Siri、Alexa或谷歌Inbox出错,意味着较差的用户体验;无人驾驶车辆出错,意味着生命危险。
如同行车记录仪中记录到的那样,这种经验很吓人。汽车擅自下了高速公路,或者错误地把地下行人道当成交通堵塞而踩了刹车。紧张的司机可能会选择不使用无人驾驶功能,这样也许会阻碍特斯拉的学习。此外,即使公司能够说服一些人成为beta测试人员,这些人会是汽车学习时真正需要的吗?毕竟,愿意参与无人驾驶的测试人员可能比平均驾驶员更喜爱冒险,这样一来,公司会把他们的机器训练成什么样子呢?
有更多的数据,机器就可以学习得更快,而上路以后,机器又可以获得更多的数据。然而,真实的路况中,可能会发生车祸,这又会损害公司的品牌。 将产品放在真实路况中,可以加速学习,但会危害品牌(也许是客户的生命!);将产品暂缓投入真实路况,会减慢学习,但可以花更多的时间在内部改进产品并保护品牌(也可能是客户的生命)。
对于某些产品,比如谷歌Inbox,平衡点似乎很清楚,因为性能不佳的代价较低,而客户的使用大大有利于机器学习。尽早对外部署这种类型的产品是有意义的。对于其他产品,比如汽车,答案不太清楚。 随着越来越多的公司开始引入机器学习,有更多的平衡点需要被找到。