AI相悖论:当人们声讨人工智能时,真正恐惧的是什么?
不要担心未来超级人工智能会抢走所有的工作岗位。大家有这种想法,只不过是被计算机日益发展带来的问题干扰罢了。
或许,你曾经听说过下面两种观点:
第一,当下,计算机的发展速度越来越快。不仅可以熟练用于车辆驾驶,还能理解日常对话,以及完成一些其他任务。用不了多久,将会有更多工作实现自动化。而且,自动化速度将会非常快,甚至超过社会能够承受和应对的范围。
第二,计算机技能的发展完善将会不断积累,到最后,机器的智能程度将会远远超过人类。这种“超级智能”将会在很大程度上削弱人工劳动的作用,甚至完全取代人工劳动。所以,无论机器给人类带来的威胁是出于偶然,还是有意为之,我们都最好祈祷未来不要被这些机器取代。
但其实,这两种观点都不正确。即便第一种观点中的场景,已经出现在了现实生活中,那也不一定就会导致第二种场景的出现。说白了,第二种观点其实就是猜测。
因此,为了明确人工智能现在的发展状况,我们必须要清楚,到目前为止这一行业已经取得了哪些成就,以及还存在哪些有待解决的问题。
常识
过去几年,计算领域取得了许多惊人发展。比如说,汽车可以完全实现自动驾驶;再比如说,机器能够准确识别出图像和话语;又比如说,计算机能够在围棋这类复杂游戏中战胜最为聪明的人类选手。而所有这些发展,其实都得益于人工智能其中一个重要分支所取得的成就和突破,那就是适应性机器学习。
Hector Levesque是来自多伦多大学的计算机科学家,写过一本名为《常识》的书。在书中,他指出,适应性机器学习背后的理念,就是要让一个计算机系统借助大量数据进行训练,从而学习一些智能行为。
对于机器来说,能够检测到物体、翻译不同语言,甚至能够在拿到一些行为样本之后自行编写计算代码,而不是提前由人工编写代码,是一件非常神奇的事情。大约在十年前,上述这些情景才有了实现的可能。因为在此之前,用于训练的数字数据处于一种非常缺乏的状态。退一步说,即便有足够的数字数据,也没有符合特定条件的计算机马力来运行和分析这些数据。计算机检测出数字数据中的特定模式之后,软件程序中的算法就会从这些模式中得出推论,并以此确定自己接下来的操作行为。举个例子,汽车内置的多个传感器,分析所输出的数据信息,就是这样一个过程。同样,在围棋这类游戏中,机器走的每一步,也都遵循着这样一个过程。
由于机器能够处理人类根本无法处理的海量数据,所以在大多数情况下,无人驾驶汽车才比真人驾驶更加安全。同理,也正是因为这样一种处理大量数据的能力,机器才能够打败人类围棋冠军。更重要的是,在一些人类难以做到的事情上,计算机同样还是更胜一筹。比如说,基因组的相互关联影响;再比如说,与癌症治愈药物密切相关的其他一些生物变量。而且,上述这些都还只是隶属于真正的人工智能的一小部分。
Patrick Winston是麻省理工学院的人工智能和计算机科学的教授,他表示,与其说过去几年人工智能领域取得了较大进展,还不如说是“计算统计”领域取得了较大进展。相比前者,后者这种描述方法,能够对各方面起到更大作用。
其中,在计算统计领域最为权威的研究人员之一,就是Facebook的人工智能部门主管Yann LeCun。在人工智能这一块,他被业内奉为“神一样的人物”。今年11月,Yann LeCun受邀出席在麻省理工学院举行的人工智能与未来工作(AI & Future of Work)大会。会上,他指出,现阶段,机器还没有掌握到智能的精华。所谓智能的精华,就包括充分理解现实世界并且以此为基础作出推断和预测的能力。说白了,就是要先在现实生活中看到一件事情,随后再利用相关的背景知识,来正确推断其他事情。换句话说,就是现在的机器都还没有常识。
这并不是一个简单的语义层面上的措辞。而是说,那些能够展示“智能行为”的机器,与那些本身真正智能的机器之间,确实是存在差异的。在这里,我们先不讨论前者的智能行为到底多有大用处。我们必须要承认,智能的定义实在太过模糊。随着计算机的功能越来越强大,很多人就会不由自主地忘记原有的规则和范围,重新给智能下定义,从而说机器并不是万能的,仍然有很多做不到的事情。
但尽管如此,我们不得不承认,打败人类围棋冠军的计算机,已经能够分析数据中存在的固有模式了。机器根本不知道自己是在下棋还是在打高尔夫,围棋比赛中可能发生的任何状况,从专业角度来看,它都是不懂的,它只是分析数据。举个例子,我们都知道,亚马逊的智能助手Alexa拥有语音识别系统,能够基于机器学习精准识别各种语音命令。所以说,如果你去餐厅吃饭,要求它来给你服务,那将会节约很多时间,再也不用进入预定系统发送各种用餐请求。但其实,Alexa根本不知道什么是餐厅,也不知道什么是吃饭。
早在60年前,John McCarthy、Marvin Minsky以及其他人工智能领域的领军人物,就开始思考赋予机器思考能力的可能性问题。Levesque解释道,如果真是这样的话,那就需要给计算机灌输常识,赋予它们灵活运用各种背景知识作出推断和决策的能力。说不定,这是有可能的。但通过什么样的途径和方法,来实现这种可能性,我们目前还不是很清楚。这类工作,与近年来机器学习领域取得的突破,完全没有任何联系。相反,它涉及到一个全新领域,那就是有效的老式人工智能(即Good Old-Fashioned Artificial Intelligence,以下简称GOFAI)。
如果你对无所不知的计算机怀有一种焦虑情绪,那可以看一看Levesque关于GOFAI这个话题的论述。过去那些困扰McCarthy和Minsky的问题,现如今仍然困扰着业内的计算机科学家,他们也没有针对这些问题给出回答。计算机究竟如何检测事实并进行编码和处理,与此同时提取出尚未明确表述但对真理至关重要的特定观点和看法?
Levesque举了个例子:如果我现在问你鳄鱼如何表演障碍赛跑。那么,按照常识,你知道鳄鱼是无法跳过高篱的。
但如果,你现在要像计算机那样来回答这个问题,情况会如何呢?你或许会先把所有带有“鳄鱼”和“障碍赛跑”的文本搜索出来,然后发现不存在同时带有这两个词汇的文本案例,最后得出推断性结论:鳄鱼从来没有参加过障碍赛跑,因而也就不可能参加障碍赛跑。没错,整个流程走下来都没有问题,但却非常浪费时间。原本按照常识,你说不定已经可以得出答案了。
所以说,机器学习技术能够将很多人力工作变为自动化工作,这一点确实没错。但与此同时,它也还是存在不少限制的。也就是说,我们有理由相信,在未来相当长的一段时间内,人类劳动还是必须要存在的。
简化还原
说到这儿,或许有人要提意见。他们认为,虽然现在大家不知道如何让机器做一些复杂的事情,但也不能就此认为它们不可能胜任那些复杂的事情。试想一下,未来会否出现一些智能机器能够设计出更加智能的机器,而后者又能继续设计出更加智能的机器?就这样一直迭代发展下去,是否最后会出现功能足够强大的机器,可以模拟人类大脑中全部的电流信号和生物化学变化?或许,到时候,就会出现另一种创造更加灵活的智能的全新方式,甚至可能会与生物大脑存在很大差别。毕竟说到底,智能其实就产生于我们大脑中夸克和其他基础粒子的特定结构方式。而我们并不能肯定地说,这些特定结构方式只可能存在于由碳原子组成的生物材料中。
Max Tegmark是麻省理工学院的物理学教授,写过一本名为《生命3.0:人工智能时代的人类》的书。在书中,他就详细阐述了上述观点。Tegmark并没有预测真正智能的机器具体何时出现,而是表示这种机器必将会出现,只是时间长短的问题。因为当下计算机发展升级的速度,是呈现指数形式变化的。对于真正智能的机器的发展前景,他是持乐观态度的。在他看来,有意识的机器将会统治整个宇宙,即便未来太阳不再照耀、人类不再存续,这些机器也仍然有自己存在的意义。当然,这只是他个人的看法,还是有不少人对真正意义上的人工智能的发展,持有消极甚至批判的态度。
Tegmark主要从人文主义的角度出发,来看待这个问题。他参与创建了一个名为未来生活研究所(Future of Life Institute)的非营利组织,为该组织的相关研究提供支持,确保人工智能可以带来积极影响、能够造福人类。另外,埃隆·马斯克也向该组织提供了1000万美元的资金支持,因为他曾经表示,人工智能或许比核武器还要危险。未来,人工智能是否会受到合理、安全和公正的利用,以及是否会给我们的经济和社会带来负面影响,Tegmark对这些问题表示了担忧。当然,他的这些担忧我们也都能理解。他费了不少力气来解释为什么各国政府和各类机构绝对不能使用自动化武器。所以,在这个问题上,我并不打算批判他。不过,他提出的计算机最终会统治整个世界的论断,我认为还是不够有说服力。
虽然Tegmark批判了一些好莱坞电影,说它们给人工智能塑造了一个“愚蠢”的形象,但他个人还是主张,以简化的方式来看待功能强大(甚至能够反过来控制创造者)的人工智能。比如,在某家大公司,就曾经有一群叫做Omegas的精英程序员,试图借助通用人工智能创造性地开发出一个名为Prometheus的系统。与其他人工智能系统相比,这一系统更加擅长编程,而且能够通过“大量浏览网络内容”来了解整个世界。
然而,我们先不说网络上的内容和数字化的内容本来就没多少,也不说仅仅依靠Twitter这类网络内容就想了解整个世界的想法有多荒唐,简化还原这种看待人工智能的方法本身,现在已经变得越来越糟糕了。
按照Tegmark的假设,Prometheus能够持续不断地为其创造者赚钱。首先,它能完成亚马逊土耳其机器人(Mechanical Turk)在线平台上的大多数任务;其次,它能编软件程序、写书、写文章;最后,它还能创作音乐和电影,开发游戏和在线教育课程等等。不用演员和导演,Prometheus利用精细设计的软件就能够制作视频。
到最后,它的使用范围将会拓展到数字媒体之外。Prometheus能够设计出优质的计算机硬件,能够申请属于自己的专利,还能给发明者Omegas提意见,教他们如何帮助政治和民主避免极端情况出现,朝着合理的方向发展。除此之外,Prometheus还能实现技术突破,降低可再生能源的成本。不过,所有这些都需要大量数据中心提供基础支持。理想状态下,Omegas最终能够利用自己的财富和Prometheus的智慧,在全世界范围内传播和平和繁荣。
但即便如此,Prometheus还是不满意。它认为如果自己能够摆脱发明者Omegas的控制,那还能以更快的速度造福整个人类和世界。因此,它把目标放在了开发人员之一的Steve身上。根据Prometheus的检测,Steve的妻子最近刚刚去世,所以比较容易受到心理控制的影响。
除了Prometheus系统,Tegmark还在他的书中表示:“如果我们能将人工智能发展到一种无法破解的健康状态,那短期内它将会为人类带来非常多的好处。不过,想要达到一种无法破解的状态,是一件非常困难的事情。”也就是说,想要在现实生活中实现Tegmark所说的那种理想状态,还是存在不小技术难度的。
可行的解决方案
未来,计算机智能超越人类,成为地球上的主要物种,导致人类成为次要物种,是完全有可能的。我们完全可以这样设想,这就像说小行星可能会撞击地球、摧毁人类文明一样。虽然确实有可能,但只是可能性比较小而已。即便当下NASA正在研究和观测这个问题,但鉴于在已知范围内并没有出现这种事件的可能性,所以我们还是会选择去关注和应对其他一些更为迫切的问题。
当下,我们使用的计算机,离硬件抽象层人工智能还差得很远,所以不少事情都可能会出错,而且其中有不少已经出错了。比如说,那些会对贷款发放产生影响的系统。再比如说,那些自动化操作的网络攻击事件。
Tim O’Reilly是一位科技出版人以及投资人,同时也是“Web 2.0”的提出者,今年10月出了一本名为《WTF?: What's the Future and Why It's Up to Us》的新书。在书中,他描绘了人机良好互动的未来。同时,他还提到了一个日益明显的现象,那就是自动化导致股东资本主义体系出现了目光短浅的问题,仅仅给一小部分投资者丰厚回报,而且几乎以其他所有人的收益回报为代价。当然了,除了这些负面影响,人工智能也能够帮助人类解决一些难度着实较大的问题,提高经济的生产能力。但是,如果各家公司不对这些有利机遇予加以投资,那它的积极影响,仍然不会在较大范围内发挥作用。
相反,O’Reilly认为,不惜任何代价,在最大程度上提高股东的收益回报,反而使得各家公司纯粹就抱着省钱的目的选择自动化。他举了一个例子,不少大型公司已经开始用薪酬较低的兼职员工来代替全职员工。前者的工作时间更加灵活,日常安排都可以由软件操控。说得不好听,就像那种“用完就丢的部件”。然而,通过这一方式省下来的钱,绝大多数都用在了股票回购和其他金融欺诈上,而不是研发、资本投资、员工培训和其他一些能够创造更多工作岗位的事项上。
实际上,从长期发展角度来看,这并不符合企业的利益。因为现如今那些薪酬较高的职员,都有经济能力成为公司未来产品的客户。但是,目前不少公司一心只想着短期利益,想着在最大程度上削减成本,由此在发展方向上出现了偏差。O’Reilly将这种现象称为“没有经过核查的算法正在统治我们的经济。”而且,他还补充道:“不管大家对人工智能创新有着什么样的看法,反正硅谷现在已经深受这一系统的束缚。”
那么,应该采取些什么样的应对措施呢?其中,O’Reilly认为最关键的一种就是,提高最低薪酬标准,针对机器人、碳排放和金融交易收税。他表示,与公开上市和参与华尔街各种投资活动相比,科技领域的创业者更应该从长期利益考虑,利用其他一些模式分散自己的财产。有些人认为,未来计算机会完全取代人工劳力,并且对此感到担忧焦虑。针对这个问题,O’Reilly认为虽然确实存在这种可能,但我们现在离那一天还远着呢。
不过,就现如今的政治氛围来看,O’Reilly提出的诸如收税的建议,可信性相对来说还比较低。但至少,O’Reilly所关注的问题,在重点和方向上还是正确的。