你所担心的“人工智能灾难”不足为惧

加速会  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

2014年,Elon Musk 在 Twitter 中表示:“Bostrom的《超级智能》非常值得一读。 我们必须要开始小心 人工智能 了,它可能比核武器更加危险 。”同年,剑桥大学宇宙学家斯蒂芬·霍金在 BBC 的访谈中表示:“ 人工智能 的发展将会带来人类的终结 。”微软的创始人比尔·盖茨也表达了类似观点:“ 我对可能出现的超级 人工智能 感到十分担忧 。”

2008年,计算机专家 Eliezer Yudkowsky 在《全球毁灭性危机》的一篇文章中描述了人工智能带来的大灾难将如何展开,他谈道:“从无智力的变形虫到低级别智商的人类,进而发展到人类天才级别的智商——人工智能完成这一系列的巨大跨越的可能性到底有多大?”对这个问题他也给出了答案:“从自然科学的角度推测,建立一个比人脑计算速度快一百万倍的机器大脑是有可能的。假如一个机器大脑依此加速,那么 人类一年的思维量将会在机器大脑中的31秒内完成 ,一千年的思维量将在八个半小时内被完成。 ”Yudkowsky还指出:如果我们现在不能超越这一水平,那就太迟了。“人工智能跟你运行着两个完全不同的“ 时间尺度” ,在你的大脑思考出‘我应该做些什么’的时候,你就已经输了。”

一个典型的例子就是牛津大学哲学家 Nick Bostrom 在他200年的《超级智能》一书中介绍的“ 回形针最大化 ”的思想实验:假如一个人工智能的出现就是为了最大化地制作回形针,那么在使用完最初供应的原材料以后,它就会开始使用在其可触范围内的所有资源,包括人类。从此,地球便开始了大转变,直到整个星球都遍布回形针和回形针制造者。不久以后,宇宙中几乎到处都是回形针和回形针制造者了。

对此,我们有四点理由,足以使我们相信“人工智能灾难”不足为惧。

第一 ,所有的世界末日场景都会涉及到一个长长的“假如……那么……”的事件序列,并且在每一个节点上是忽略了这个毁灭性灾难的。西英格兰布里斯托尔大学的电子工程教授Alan Winfield在2014年的一篇文章中这样说:“假如我们成功地建立了一个与人类同等智力的人工智能,然后假设这个人工智能完全理解它自己是如何工作的,接着假设它后来成功地提升了自己并创造出超级人工智能,进一步假设这个超级人工智能有意或无意地开始消耗资源,最后还假设我们没有办法对此叫停,那么我们确实出现了危机。这个危机虽说不是不可能发生,但经过这么多的假设看来,却是不太可信的。”

第二 ,人工智能的发展比预计的发展要慢得多,这就给我们留下了在每个阶段实现风险评估的时间。谷歌的执行总裁Eric Schmidt在回应Musk和霍金时说:“你们认为人类会无知到看不到这类情况的发生吗?你们认为人类在这些情况发生时会视若无睹,而不是去立刻关闭这些计算机吗?”谷歌的DeepMind已经有了“人工智能开关”的概念,当发现人工智能存在接管企图的时候,就能依靠那个“大红按钮”来关闭它。百度的副总裁Andrew Ng在反驳Musk的时候称其推断是杞人忧天的,类似于“我们还没有踏足火星,就已经开始担心火星殖民人口过多的问题了”。

第三 ,人工智能带来的世界末日场景,通常是在把自然智能类比人工智能的基础上推测得出的。哈佛大学实验心理学家Steven Pinker在回答Edge 2015年的年度难题——你如何看待会思考的机器——时说:“人工智能的反对派将一个狭隘的男权主义心理投射到了智能的概念之上,他们认为高度人类化的超强智能机器人一定会有颠覆废黜主人、统领世界的企图。”Pinker还指出人工智能同样有可能很自然地沿着女性的思维发展:有能力解决问题,同时又没有杀害无辜或是主宰文明的企图。

第四 ,计算机“想要”去做些什么(比如把世界变成回形针的世界)就意味着人工智能是有情感的,但是就像科学作家 Michael Chorost 写的“当人工智能真正“想要”一些东西的时候,它就会处在一个存在着奖励与惩罚的世界,这个惩罚包括来自人类的、对其恶劣行为的惩罚。”

通过观察历史上所有末日预言者百分之零的预测准确率,再加上几十年来人工智能缓慢、渐进式的发展,可以说, 我们有足够的时间建立故障安全系统,来防止那些所谓的人工智能灾难。

编辑:杨志芳

注:本文由「图普科技」编译,您可以关注微信公众号tuputech,体验基于深度学习的「图像识别」应用。

   



随意打赏

人工智能打败人类人工智能机器人人工智能的应用人工智能的未来人工智能灾难人工智能电影人工智能技术人工智能论文人工智能图片人工智能
提交建议
微信扫一扫,分享给好友吧。