AlphaGo的胜利、无人驾驶汽车与价值观
导读 : 价值观也许不会再是人类的专属。
从三月初开始,“人机大战”的比赛就已成为科技圈关注的话题。观看直播的人,或抱有必胜信心低估谷歌人工智能的学习能力,或坚定支持智能AI,对李世石并不看好。无论如何,比分为4:1的这一轮对决注定成为围棋界的经典, 而AlphaGo战胜李世石的过程,对我们再来思考未来或许有一些有趣的启发。
先说一段理论性的东西。
德国人韦伯(Max Weber)提出的对价值合理性的判断,区分了“价值理性”和“工具理性”的不同。简单来说,偏重动机的“价值理性”,更偏爱将做某件事情的起因和思考放在比结果预期更重要的位置上。这是大多数人生活中更为熟悉的固有价值模式,回想可见,我们经常听到这样的句子:“但是我这也是为了你好”、“...可你这么想就不对” 等等。当然,提倡价值多元,意味着单独撇离语境去谈背后的价值观判断毫无意义。我想说的是,如果我们把我们所熟悉的“用户行为路径”分析再次在脑子里过一遍,是否会发觉,那些体验细节往往因为决定着用户对产品的感觉而显得异常关键;我们在判断产品优劣时就像用户判断去留时一样简单而迅速,决定常常发生在一瞬间。相比你熬夜九十九天的艰难困苦,用户能感知到的仅仅是你做出了一个真正有用而且易用的产品,还是一堆不知所云的躯壳。虽然这听上去很残酷,但用户甚至还在不断的为自己的产品认知提出更多的要求。比如,现在你不仅要做到有用而且易用,甚至还得有趣。
读到这里大家也许有些困惑,聊AlphaGo怎么聊到用户对产品的认知上去了?这是因为AlphaGo本身作为DeepMind实验室的智能AI,并非我们以往思维逻辑能够覆盖。想要尽可能对它有相较清晰的认识,就得先厘清机器与人行为方式的区别,想要了解行为方式的区别,就需要先了解“价值理性”和“工具理性”的不同。
以上已经说到的用户体验,习惯用脚投票,在背后实际隐藏着一条用户自己的成长路径,这条路径伴随的正是互联网技术的进步和产品生长力的飞跃式发展。技术进步,意味着用户得到更多不断更新的互联网教育程度普及的红利;产品生产力提升,代表着传统意识形态的线下社会正在不断被从未有过的新生事物冲击,并习惯了这种革新力度。2015年11月,苹果在开发者论坛上宣布,应用商店AppStore的累计应用下载总量超过了1000亿次。信息飞速叠加,我们接受着时而碎片化时而厚实的冲击,价值多元,特别是“工具理性”得到了更多的群体话语认同。
这为“机器”的普及和“机器”话语权的普及带来了合适的时代背景。
谈论工具的“价值观”之前,我们先回顾一下AlphaGo惊艳到我们的棋局能力中的几手棋。
带着神秘的蒙特卡罗算法的AlphaGo在运用深度学习时需要不断在运算中进行“剪枝”操作。尽可能将搜索范围缩小,得出相对而言的最佳策略。在对决中,李世石带着明显的针对性,曾试图将棋局带入开放式的复杂局面来加大AlphaGo的运算难度,因为在这种情况下AlphaGo的“剪枝”将变得很多,效率会下降,对棋局的把握难度就会加大。我不懂围棋,但之后向几位懂棋的朋友请教,包括在网上查看复盘分析,确认了我的猜测,AlphaGo在可以避开争斗陷入复杂局面的情况下,采取了迎战策略,并且以此获得了优势。在复杂局面下,AlphaGo懂得取舍和时机选择。
其次,我们几乎可以在所有复盘中发现,AlphaGo在数手棋(比如第一局白136手吃)上有明显的“目数亏损”。因为围棋可能会出现比较目数的胜负判断,所以在普遍情况下,对A、B两处哪一处落子的思考还会顾及贴目的盈亏。但有趣的是,AlphaGo并不囿于常规,在多处有“失误”着手。这种AlphaGo在局部的应对“失误”,在棋面的逻辑推理中我这样的菜鸟也都不难发现。然而,对于AlphaGo,它的逻辑思考却与人大不相同。蒙特卡罗算法本身,就意味着机器的“相对效率”追求才是王道,并不追求一招一式的最优选择。换句话说,人们也许更在乎,或者说固有价值思考的惯性更愿意按照每一手最强最好的策略进行,这是“一步一步,稳扎稳打”式的经验总结。而AlphaGo只追求那些它计算出来的,胜率最高的下法。
我们喜欢的习惯的逻辑,定义了“失误”和“技巧”,却并非是机器也认同的。在电影《星际穿越》的影片末尾,人们在一个违反我们对重力系认知的星球上生活得很好。生命历程中我们难以设想一切物体的移动都离开“重力系”这个大的概念。AlphaGo某种程度上就是那个新的“入侵系”,不在我们的认知逻辑之中,却并不影响它获取胜利。
托克维尔在《论美国的民主》中记述着在今天可能适用于我们与机器关系构建的观点:无论民主是什么,我们至少可以确定它不是什么,权利的中心并不一定是真理的中心。当我们怀着这样的审慎心境来看待“机器”思维的时候,传统价值的判断可以试着下放到同一桌面来进行重新地观察:机器,虽然是被人所创造的,自我生(被造出)死(被销毁)的权利形如自然判断掌握在人类手中,人似乎拥有着“机器”与人共处的世界的好与坏、善与恶、有用与没用、想与不想等等辨别的权利本身,但却是否真的拥有了真理的最佳判断依据呢?托克维尔的话也许能启发我们重新去思考这个世界的运行规则。
谷歌公司不仅拥有AlphaGo智能AI,还在继续研发自己的无人驾驶汽车。科技圈对无人驾驶汽车褒贬不一,其中关于无人汽车怎样去解决复杂的道德伦理难题,最被大家关心和感兴趣。缺失,人类有人类自己的“电车难题”,当让无人驾驶汽车去回答“电车难题”,它会给出什么样的答案,什么样的答案又是我们愿意看到的?我们不妨把问题挖掘得更深入更具挑战性,当无人驾驶汽车在无可避免的情况下,需要在牺牲驾驶者和牺牲“路人”的两难问题中必须选择其一时,它究竟该做出怎样的判断?
用汽车来推演机器的价值判断,将会更有说服力和带入感。谷歌无人汽车的测试数据表明,在过去的很多路测情况中,无人驾驶汽车有上百次向驾驶者交出了控制权。这些情况多半是由于其它人没有遵守交通规则造成的。百度首席科学家吴恩达更是在接受《华尔街日报》记者采访时宣布,百度将在2018年实现无人驾驶汽车的商用。
过于复杂头疼的问题抛问新生物,好像显得“不近人情”,其实却可能是机器价值判断中对“工具理性”的升级契机。人类在正常情况下,无法抛开全部的人情和私怨,我们创造法律,建立秩序,以为这样就能得到我们想要的公正,却因为我们固有的“情感”属性,让我们始终处在想要第三者视角却无法完全从当事者中抽身的尴尬境地。知乎有一个问题的答案,提到这样的数据:多伦多大学的Redelmeier教授统计了2004-2009年的全部近3000名入学面试者的春季考试成绩,结果显示,在雨天参加面试的申请者比在晴天参加面试的申请者的面试成绩低1%,这也就相当于总成绩平均低了10%。这只是人类价值判断中不甚精确的其中一例,我们不能批驳,因我们自身也有这样或那样的局限导致我们深知“万事无绝对”。但如今,AlphaGo的机器对决使得我们慢慢发现机器本身的“天赋异禀”,独特的算法构造和学习能力,匹配着比人类更精准的价值坚持。而且,机器没有情感,尽管像《终结者》这样的电影中机器在努力的学习讨好人类,但情感对机器而言只是一门“关于伪装的科学”。在不必讨好人类的情况下,神经网络会得出程序计算的“最优解”。相比人类,它完全剥离了情感设限和自我认知的局限。
《2001:太空漫游》里的机器,对人类做出过这样的回应:“对不起,我不能那么做。”这是对我们构建的科技规则和所谓互联网模式的另一种释义,也是对既有的价值权威的新挑战。假如,某一天交通领域的“机器”智能到达一定的程度,并且敢于坚持且能够坚持自己的价值逻辑,我们的科技路径会走出怎样的曲线?上文中我已解释得比较清楚,人本身的封闭、单一、畏惧的心理正在不断的消解,互联网的信息爆炸速度和科技背景在不断赢取我们对价值多元构建的宽容甚至是兴趣。机器,会形成自己的价值体系,并会因为自己快速得可怕的学习能力而迅速建立健全自己的“坚持原则”。至少,相比全世界的每一个地区在为自身生活的社会变得更好而不断贡献智识、劳力,健全法律的速度,机器绝不会做得更差。
交出权利就不再仅仅意味着是科幻片里的争斗,而是新秩序下机器价值和人类价值相互融合的机遇。那些棘手的处在人类自我构造局限中的判断“常识”,都一律交由机器的价值逻辑运算处理。如此一想,包括无人驾驶汽车在内的机器未来,就显得前景光明,科技圈会越来越能接受“工具理性”的演化和推进,“电车难题”式的困境将不复存在,对于机器的世界,那是完全不同的“惯性系”,于人难以解决的苦楚很可能对于机器只如是简单的运算比较。大数据为机器正提供着这样取之不竭的“例外”。
“机器价值”的形成,也许和十年前人们无法预知人工智能战胜职业棋手能这么迅速一样。中国围棋队总教练俞斌先生在去年还表示要100年。而如今AlphaGo势不可挡,产业成长速度尤为惊人。这本身或许也说明,如果连增长速度都不是我们价值经验中那个模样,为什么机器非要给出符合我们价值审视,让我们高兴的答案?
不能给市场讲道德,对别人付出了情感就会希望得到等价的回报,这都是我们很可能拥有机器却不知为何物的习惯。也许未来当我们对机器的价值判断抱有不理解和厌恶的时候,也同样看看结果是否够好只是我们对过程不安。这就像亚当斯密在《国富论》中,已对那个年代的人诉说着“利己”的好处一样,人们可能不喜欢,但却不得不承认这样的事实:我们的晚餐并非来自屠夫、酿酒师和面包师的恩惠,而是来自他们对自身利益的关心。
值得猜想,人性的美丽与动容,机器的理性完全和效率,将构成全新的社会分工,价值观也不会再是人类的专属。