揭秘5大最具争议观点:超级AI是否真能取代人类

猎云网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

揭秘5大最具争议观点:超级AI是否真能取代人类

有人说未来计算机人工智能将会比人类还要聪明,会取代人类所有的工作,占用所有的资源,人类将会灭亡。这是真的吗?

这是我做人工智能讲座时听到过最多的问题。提出这一问题的人态度都很真诚,他们也是听各种专家谈到这个问题,比如史蒂芬·霍金、埃隆·马斯克和比尔·盖茨等,因而产生了忧虑,认为上述情景未来十分有可能成为现实。在最近举行的一次有关人工智能技术的大会上,一支由九人构成的专家组就表示,在不久的将来,超人类智能是一定会出现的。

他们认为未来超人类智能会取得主导地位的这一观点,其实基于五个证据并不充分的假设之上。所谓证据不充分,就是说这些假设未来有可能成为现实,但到目前为止还没有任何真正的证据作为支持。具体说来,这五个假设包括:

1. 人工智能的智慧程度正在以指数形式超越人类;

2. 我们将会把人工智能变为通用智能;

3. 我们能够用硅的形式来研究人类智能;

4. 智能的扩展是没有任何限制的;

5. 在我们掌握了超级智能之后,能够用它来解决绝大多数问题。

与上述五个没有充分证据支持的假设相比,我个人认为下面五种说法更具说服力:

1. 智能并不是一个单一维度的名词,所以“比人类更加聪明”是一个没有任何意义的概念;

2. 无论是人类,还是人工智能,都没有向通用智能发展的计划;

3. 在其他媒体上模拟人类思维会受到成本的限制;

4. 智能的维度并其实受限制;

5. 智能只是整个发展过程中的一个因素。

因此,如果仅仅依靠上面五个没有充分证据支持的假设,就说超人类人工智能将来会完全代替人类,那与宗教中的迷信没什么两样。在下面的内容中,我将会针对这五个错误的假设进行逐个的详细分析,并且给出相应的反对理由,论述超人类人工智能迷信的本质。

1. 人工智能的智慧程度正在以指数形式超越人类?

其实,在很多情况下,人们对人工智能的误解,都始于对自然智能的误解。他们错误地认为,智能只是一个单一维度的概念。大多数科技人员倾向于将智能画成一条斜率大、增速快的直线,就像Nick Bostrom在《超级智能》这本书中画的一样。也就是说,这条线的一端代表着低智能,比如说小型动物,而另一端则代表着高智能,比如说天才,就好像智能是能够简单地用分贝数值来表示的声音一样。所以说,从这种发展趋势来看,我们不难想象智能会随着直线的无限延伸而突破限制,最终超出我们人类自己的智能极限。

这一模型从外观上来看就像梯子,也就是说每一个阶梯所代表的智能水平,都是从低到高逐渐增加的。低等动物处在人类智能水平之下的阶梯,而高水平的人工智能自然而然就处在人类智能水平之上的阶梯。这种高水平人工智能何时超越人类智能并不是最重要的事情,最重要的是衡量逐渐升高的智能水平所用的指标。

这一模型最大的问题,就在于它带有虚构色彩,就像古老的进化阶梯一样。在达尔文提出进化论之前,人们认为自然界的进化过程就是阶梯型的。就像上文所说的一样,低等动物处于人类智能水平以下的阶梯上。哪怕是在达尔文的进化论问世之后,人们还是习惯性地将进化过程比作阶梯。他们认为,整个进化过程从鱼类开始,随即演变为爬行动物,接着再变成哺乳动物,后来再升级为灵长类动物,最终变成人类。每一个状态,都是在前一个状态的基础之上实现了一点演化和升级。当然,聪明和智能程度也就随之提升了。所以说,在某种程度上,智能演变阶梯与人类存在演变阶梯是平行的。但其实,这两种模型所提供的观点都不是完全科学的。

揭秘5大最具争议观点:超级AI是否真能取代人类

能够更加准确地形容物种自然演变过程的图表,是德克萨斯大学的教授David Hillis首次在DNA的基础之上提出的发散性圆形结构,它的形状看上去有点像曼陀罗花。在圆形结构的中间是最为原始的生命形式,然后随着时间的推移,向四周进行延伸和发散。因此,地球上存在的距今最近的生命形式,就形成了这个圆形结构的外周。与蟑螂、狐狸和细菌一样,人类也处在这个圆形结构的最外一周。这些物种都经过了延续三十亿年之久的生殖和繁衍过程。直白地说,现如今的蟑螂和细菌都是经过高度演化的生物存在,与人类没有什么大差别。上文所提到的从低等到高等的演化阶梯根本是不存在的。

揭秘5大最具争议观点:超级AI是否真能取代人类

相似地,智能演变过程也不存在什么阶梯。智能并不是一个单一维度概念,而是诸多不同认知类型和模式的混合物。而且,这些类型和模式都是能够连续的统一体。下面,我们就以衡量动物智能作为最简单的例子。假如智能果真是单一维度概念,那么鹦鹉、海豚、马、松鼠、章鱼、蓝鲸、猫和大猩猩的聪明程度就应该是呈一条直线上升的。但是目前,我们并没有任何科学证据,来给这样一条直线提供支持。其中一个原因,是不同动物的聪明程度应该是不存在差别的,但是我们并没有看到这一点。动物学主要研究的,是不同动物的不同思考方式。但或许,它们都有着相对类似的“通用智能”呢?这不是没有可能,只是目前我们还没有什么用来测量这种智能的合理指标和方式。但相反,针对不同类型的认知,我们还是有不少衡量指标的。

如果我们想要用一个更加准确的模型来描述智能,那就要利用Richard Dawkins写的算法来画出它的可能性空间。智能是由诸多连续统一体构成的结合体,包含多个节点,每个节点都是一个连续统一体,是具有高度多样性的高维度复杂结构。我们可以将智能这个复杂结构看成是由多种乐器协奏出来的交响乐。它们不仅在音量上存在差别,在旋律、音色和节奏上都存在差别。所以,我们可以将其看作是一个生态系统。这样一来,不同的组成节点之间都是相互联系、相互依存和相互转化的。

用Marvin Minsky的话来说,人类的大脑中聚集着各种各样的思想。我们生活在一个会思考的生态系统之中,这个系统中包含着可以进行不同类型思考过程的认知形式,比如演绎、归纳、符号推理、情商指数、空间逻辑和长短期记忆等等。整个神经系统也是一种拥有独特认知模式的大脑。也就是说,我们不仅仅用大脑在思考,更是用整个身体在思考。

这些认知组成形式,在不同个体和不同物种之间是不一样的。在不少情况中,动物是比人类更加聪慧。比如说,松鼠能够连续几年准确记住橡子的位置,但人类却不能。所以,从这个认知形式来看,松鼠的确是优于人类的。

这个道理,在人工智能方面也是一样的。人工大脑在某些维度中已经超过了人脑。比如说,计算器在数学方面是优于人脑的;谷歌的记忆在某些维度中也是优于人脑的。我们现在正在对人工智能进行完善和优化,让它们在特定模式中达到精通状态。虽然在其中一些模式中,它们能做的事情我们也能做,但是它们更加擅长,比如概率和数学。然而在其他一些模式中,它们能做的事情我们根本就不能做,比如说搜索引擎能够记住60亿网页上的每一个单词。将来,我们会发明出全新的认知模式,即不存在于人类世界,也不存在于任何生物系统。在很多情况下,这些模式是针对某些特定的工作种类发明出来的,适用范围比较小,或许只有在统计学和概率的范畴中才能发挥作用。

在其他情况下,全新的思维方式将会是各种认知形式的综合体。我们可以利用这一综合体,来解决单靠智能解决不了的问题。在商业和科学领域,有些很难解决的问题需要采用两步走战略:第一步,发明一种全新的思维模式,与人类大脑共同运作;第二,将二者结合起来解决问题。因为我们现在要解决的问题,是以前解决不了的,所以我们认为这种认知是比人类大脑“聪明”的。但事实上,这种认知与人类大脑是不一样的,不能够直接进行比较。那么,究竟不一样在什么地方呢?主要就是对人工智能带来的益处看法不同。我认为,一个有效的人工智能模式,就是要能够以“外星人”那种非同寻常的智能来思考问题。也就是说,这一模式最主要的资产,就是它的相异特性。

2. 我们将会把人工智能变为通用智能?

对于人类智能的第二个误解,就是我们认为自己有着向通用智能发展的想法和计划。现在,有不少人工智能研究人员都想要发明一种通用智能。但其实,如果我们认同智能可以提供一个较大的可能性空间这一说法,那就不存在所谓的通用智能这种状态。人类智能并不是处于一个中心位置,周边有其他智能包围。相反,人类智能只是一种非常具体的智能,范围非常小,只是支撑着我们在这个星球上演化数百万年甚至数千万年的基础。在所有可能的智能类型中,人类智能只是处于某个角落而已,就像在浩渺无边的银河系中,我们也只是处于某个角落而已。

我们肯定能够想象,甚至是能够发明一种瑞士军刀式的思维方式。这种方式能够完成很多事情,但却不能事事精通。人工智能需要遵循的工程准则,与所有事物需要遵循的准则是一样的:你无法做到十全十美,将所有事情做到最优状态,只能从中找到一个平衡。所以说,在某些功能实现最优之前,你是无法兼顾所有功能的。所谓的“做好每件事”的思维,是不能够指导你真正做好每件事的。因为我们相信自己的大脑是全能的,所以想要发明一种智能来使得所有的思维方式发挥最大作用。但到目前为止,我还没有看到这种可能。简单地说,我们还没有找到足够多的思维方式来考虑所有事情。

3. 我们能够用硅的形式来研究人类智能?

那么,我们为什么会产生发明通用智能这一想法?我想主要是因为通用计算这个概念。通用计算在1950年首次以Church-Turing这一假设正式问世,这一假设认为所有符合特定要求的计算都是等同的。因此,不管是在机器部件中,还是在生物大脑中,所有的计算都有一个共同的核心,都有着相同的逻辑过程。这就意味着你应该可以利用能够进行通用计算的机器,来模拟任何一种计算过程或者思维过程。坚信科学会以指数形式不断进步的人士,认为这一原则将来能够指导我们发明出控制人类大脑的硅质大脑,超过人类大脑的智能程度。不过,对于这样一种观点,我们还是应该保持怀疑态度,毕竟它所依赖的理论基础是对Church-Turing这一假设的错误解读。

这一理论的起点,是在不受限制的记忆和时间内,所有的计算都是等同的。但是最大的问题就在于,在现实生活中,没有哪一台计算机是拥有无限记忆或者时间的。当然了,如果你忽略时间这个因素的话,那么所有的思维过程就也是等同的。如果你再进一步忽略现实生活中的储存和记忆限制,那还可以在任何一种结构当中模拟人类思维。

能够模拟人类思维过程的唯一方式,就是在与人类大脑极其类似的带有水分的组织中完成计算工作。也就是说,在干燥硅质大脑中运行的复杂人工智能,并不能产生真实的人类思维方式。因此,我认为,只有通过与人类组织类似的神经元,才有可能发明出与人类大脑高度相似的人工大脑,才有可能让它们的思维方式与我们人类的思维方式相似。但是,想要研发出与人类高度相似的组织和神经元,所需成本是非常高的。这些组织与人类大脑中的组织越是相似,那么所产生的效益就越大。

再者,上文也说了,我们不仅用大脑思考,更是用整个身体思考。有大量数据表明,我们的神经系统指导着理性的决策过程,能够预测和学习。所以说,我们模拟整个人体系统的次数越多,能够精确复制这一系统的可能性就越大。

4. 智能的扩展是没有任何限制的?

超人类智能的理念,以及该智能能够持续自行优化这一观点的核心,就是坚信这种智能在规模上不受任何限制。但是到目前为止,我都没有找到任何支撑这一核心观点的证据。说到底,还是因为我们错误地把智能当成了单一维度的概念。从科学角度来看,在整个宇宙空间中,没有哪一种物理维度是不受限制的。比如说,温度不是无限的,不管是热,还是冷,都是有一定限度的。再比如说,空间、时间和速度也都不是无限的。或许,数学上的数轴是没有任何限制的,但是所有其他的物理属性都是有限制的。那么,问题就来了。智能的极限到底在哪里呢?我们倾向于认为,智能的极限是远超过我们人类智能极限的,就像我们认为人类智能极限是远超过蚂蚁智能极限一样。先不考虑上文反复提到的单一维度问题,我们认为人类自己并不是智能的极限,有什么样的证据作为支持呢?我们为什么就不能够处于智能最高水平呢?

或许思考这个问题,更好的一个角度是将我们人类的智能看成是数百万种可能的智能形式中的一种。所以说,在维度数量多达数百个甚至数千个的前提下,认知和计算的每一个维度都有极限,思维的种类也就相应地有无数种,这无数种中没有哪一种是不受限制的。当我们遇到这些思维时,或许会下意识地认为它们中的某些要优于人类。在最近出版的一本书中,我粗略列出了几种在某些方面确实要优于人类的思维。

现如今,有些人想要给这些实体取名叫做超人类人工智能。但事实上,这些思维的多样性和特异性,会帮助我们发现更多有关智能的新知识和新看法。

再有,在那些拥护超人类人工智能的人看来,智能将来会以指数形式向上发展。至于产生这种想法的原因,应该是他们认为一直以来智能确实是在以指数形式发展的。但是,针对这一观点,目前同样没有任何证据可以证明。不管使用什么方式进行计算或测量,都不能得出智能以指数形式向上发展这一观点。说它是以指数形式增长,就意味着人工智能能够以规律性的间隔实现能力水平的翻倍。这种说法同样没有任何证据支持。那么,既然现在没有证据支持,我们又为什么要假设它在不久的将来会以指数形式上升呢?在这条呈指数形式上升的曲线上,唯一真正存在的就是我们在人工智能上的投入。我们为了提高智能程度,投进去的各种资源确实是呈指数形式上升的。但与此同时,人工智能的产出水平,却不是以指数形式上升的。人工智能并不会每隔三年就实现两倍的智能水平提升,甚至每隔十年都不一定能实现两倍的智能水平提升。

5. 在我们掌握了超级智能之后,能够用它来解决绝大多数问题?

本文讨论的最后一个关于超人类人工智能的错误想法,就是有一种几乎不受任何限制的超级智能,能够快速解决很多现实生活中无法解决的问题。

这种观点的支持者认为,更高级别的智能可以产生范围更广的积极影响,带来更多进步。我个人将这种想法称作是“思维主义”,这类人错误地认为,在不久的将来,我们取得的进步只会受到思维能力这一个因素的影响。换句话说,就是只会受到智能这一个因素的影响。

我们就以治疗癌症或者延长寿命作为例子。这些问题仅仅依靠思维过程是没有办法解决的。没有哪一种思维主义,能够发现细胞如何变老,搞清楚染色体终端的结构如何。没有哪一种智能,能够通过简单阅读现今世界上各种科学文献,就详细掌握人体结构的运作模式。没有哪一种超级人工智能,能够通过简单了解过去和现在的核裂变实验,就在一天之内找到全新的核裂变模式。现实世界中,各种实验数不胜数,得到的互相矛盾的数据也数不胜数,我们需要进一步进行实验,才能最终形成真正可以发挥作用的正确假设。只是考虑有可能的数据,是无法收获正确数据的。

思维(智能)只是科学的一部分,甚至是很小的一部分。举个最简单的例子,我们无法找到足够多的数据作为支持,来解决人人都要面对的死亡问题。对生物体进行实验通常需要很长时间,比如说细胞新陈代谢的过程是非常缓慢的,无法人为加快,可能要花几年或者几个月,最少也要几天的时间才能够拿到结果。如果我们想要了解有关亚原子粒子的详细情况,那光是动脑思考是无法做到的,而是需要动手去建造大而复杂的物理结构。

但是,超级人工智能能够加快科学发展的速度,这一点是毫无疑问的。我们能够利用计算机来模拟原子和细胞,对多种因素进行控制来人为加快速度。但是,在我们试图以最快的速度取得成果的过程中,有两点会限制模拟效果。第一,模拟和模型要想比实物更快,就必须要排除掉一些因素;第二,测试和验证这些模型是否符合事实需要一定的时间,这个过程是不能刻意加快的。

总之,人工智能要想切实发挥作用,就必须要与现实世界进行融合,其创新步伐也必须受到现实世界的各种条件限制。如果跳过实验和原型研发,不愿意接受现实和失败,那么智能就只有想法而没有结果。在所谓的“比人类更加聪明”的人工智能出现之前,我们需要花时间去研究和实验。当然了,这种智能出现的时间和进步的速度,在很大程度上受人工智能技术的发展影响。

308023

本文被转载1次

首发媒体 猎云网 | 转发媒体

随意打赏

超级人工智能超级黑科技
提交建议
微信扫一扫,分享给好友吧。