人工智能的"军备竞赛"已经开启!未来一万年的人类是啥样?
研究人员、企业家和科技巨头正将 人工智能 (AI)带往新的前沿,并影响着健康、教育和商业的日常活动。但是,正如扣人心弦的新书《生命3.0》所描述的,关于机器智能的崛起以及它如何重新定义人类,还有更大的、甚至是哲学上的问题。
机器、软件和网络对智慧、意识和人类观念的形成意味着什么?今天的规则和道德准则将如何塑造明天的文明?《生命3.0》这本书由Max Tegmark所著,以对话和发人深省的文风探讨了人工智能时代的人类处境,为我们这个时代最重要的对话提供了真知灼见。
书的容量有365页,包含8个章节。被引用的书籍包括超级智能(Nick Bostrom),奇点临近(Ray Kurzweil)。这本书伴有一个在AgeOfAi平台进行的在线互动调查。
作者Max Tegmark是麻省理工学院的物理学教授,他已撰写了200多篇关于从宇宙学到人工智能主题的技术论文。作为未来生命研究所的主席,他与Elon Musk合作,启动了首个人工智能安全研究奖助金计划。被戏称为“疯狂的麦克斯”,他的早期作品是《我们的数学宇宙》。
进化与智慧
Tegmark定义了生命的三个进化阶段:生命1.0(生物阶段),生命形式的硬件和软件进行自然进化;生命2.0(文化阶段),硬件进化,而生命形式设计大部分的软件;生命3.0(技术阶段),生命形式设计自身硬件和软件。
尽管人类DNA的信息在过去5万年里并没有发生显著的变化,但人类(生命2.0)已经从基因的束缚中解放出来,并在人脑、书籍、计算机和网络的信息储存量中有显著增长。下一个升级(生命3.0)将能够设计我们的硬件:DNA、神经连接、协同矩阵等。《生活3.0》将由人工智能驱动,并将在未来一个世纪到来,甚至是在我们的有生之年。
Tegmark通过定义一系列术语来确定这个阶段:智力(完成复杂目标的能力)、机器学习(通过经验改进算法的研究和使用)、人工智能(至少和人类一样能完成任何认知任务)、超级智能(远远超出人类水平的智力)、有益人工智能(强大并受人工智能安全研究准则的指导)、意识(主观经验)、意识(主观经验)和奇点(智能爆炸)。
记忆力、计算能力、学习能力和智力都已独立,它们不依赖于或反映底层的物质基础。“智能不需要肉、血或碳原子,”Tegmark解释说。人类文明是通过语言、工具和复杂的相互关系进化而来的,而下一个可实现的发明很有可能是人工智能。对人类而言,大多数“软件”学习是通过突触生长的方式——但是智能机器可以采用不同的路径,因为它们不必不断地重新创造,机器可以比人类更快地改进机器。人类的DNA存储了1.6千兆字节的信息,相当于一个下载的电影(有些细菌储存了40千字节)。人类大脑的1000亿个神经元储存着大量信息。大脑中的信息是通过联想而不是地址来回忆的。
鲁棒性、法律、战争和就业
语音识别、翻译、机器人和游戏都是人工智能的一些显著应用,但其他影响还包括金融市场、机器人辅助制造、智能电网、外科手术和自动驾驶汽车。
通过更好的验证、确认、安全和控制,人工智能可以帮助减少人为错误,增强系统的健壮性。
在行为心理学的启发下,深度强化学习为DeepMind和OpenAI的突破提供了动力。DeepMind的AlphaGo在没有输掉一场比赛的情况下,已经在世界上20个顶级围棋比赛中成为冠军。在游戏中深度学习有时被认为是创造直觉(决定某事而不解释原因)和创造力(不寻常的且成功的进步)。
Tegmark表示:“卓有成效的人机协作确实在许多领域看起来很有希望。”该研究的下一个前沿领域包括将深度递归神经网络与语义世界模型结合在一起。他补充道:“人们越来越难以辩称,人工智能完全缺乏目标、广度、直觉、创造力或语言。”
众所周知,人工智能的黑暗面在于自主武器横行。一款由人工智能驱动的杀手无人机,其价格仅相当于一部智能手机。因此,许多人工智能研究人员和机器人专家呼吁禁止某些类型的自主武器,并阻止“全球人工智能军备竞赛”。
“如果我们能弄清楚如何让机器人裁判变得透明和公正,人工智能可以让我们的法律系统更公平、更高效。”泰格马克解释道。法律体系中典型的人为错误是由偏见、疲劳或最新知识匮乏造成的。需要设计机器人的法律分类、责任和权利。在一场涉及无人驾驶汽车的事故中,谁应该承担责任:居住者、所有者、制造商还是汽车本身?
Tegmark认为,毫无疑问,人工智能主导的时代将会改变就业,最好的职业将是那些涉及人、不可预测性和创造力的职业。不幸的是,研究表明,科技对教育程度更高、科技公司的所有者和少数“超级明星”有利。
政府应该制定促进研究、教育和企业家精神的政策,确保基本收入水平,同时赋予人们一种工作与生活的使命感。
在人工智能研究人员、科技巨头和创业者的参与下,“生命研究学院”的未来将在这方面成为“人工智能安全”的主流。它支持诸如与政策制定者对话、尊重隐私、共享利益、共同利益和人类控制等原则。这样做的目的是为了在人工智能完全起飞之前改善人类社会,在技术使其过时之前实现现代化,并让年轻人在将权力交给他们之前,让他们了解如何创造出强大的技术。
目标
人类的目标和动机有着复杂的相互作用,比如生存、资源获取、好奇心和同情心。有些人已经放弃了早期的生物目标,比如复制。智能行为与目标实现相关联,早期的人工智能计划围绕着编程机器来实现人类目标。目标设计涉及到子目标、伦理、学习和强化等问题。
但随着人工智能变得越来越复杂,我们需要问人工智能是否应该保留我们已经给出的目标。我们是否应该让AI更广泛、更广泛的目标?这是谁的目标?我们能改变AI的目标吗?“意义”的含义是什么?人类在科学、宗教和哲学方面的目标是什么?有朝一日,人类的目标会像蚂蚁的目标一样令人沮丧吗?
意识
Tegmark提出了一种对意识实体的定义,即那些可以自由思考、记忆、计算、学习、经验、交流和行动的人,无关伤害他人。作者强调,随着人工智能变得越来越复杂,我们也需要认识到,我们对意识意义的哲学探索现在有一个紧迫的截止日期。
一些棘手的问题产生,比如理解无意识行为是如何影响意识活动的?意识和无意识系统之间的物理属性区别是什么?以及为什么事物是有意识的?自动驾驶汽车经历着什么?人工智能有自由意志吗?人工智能会受到影响吗?AI应该有权利吗?
人类意识研究反映了大脑理论、物理学和信息科学等领域的融合。“如果人工智能是可能的,那么与人类的经验相比,人工智能体验的空间可能是巨大的,”Tegmark解释道。人工智能可能会挑战人类中心主义的理念(认为人类是地球上最聪明的物种,因此是独一无二和优越的)。
人工智能起飞:智力爆炸?
生命进化的原则包括协作、竞争和控制,这些都被技术放大了。如果我们有一天创造出人类水平的AGI(artificial general intelligence),那么它会以多快的速度制造出一场智力爆炸呢?我们能控制这个吗?如果不是,那我们要花多长时间才能控制我们的世界?在这样一个世界里,我们人类是在极权主义的环境中还是在一个被授权的舞台上?
“人工智能突破”章节以科幻小说的形式讲述了这样的问题。被不那么聪明的人类奴役,AI会不会感到不高兴?人类应该在人工智能系统中创造什么目标来防止兵变?人工智能能对系统进行主导,并破解它吗?我们会生活在两极世界(人类和人工智能)吗?
我们什么时候才能到达这条岔路口——当我们这么做的时候,我们能对人工智能施加多大的控制,人工智能又能控制多少呢?根据Tegmark的说法,真正的答案不是会发生什么,或者应该会发生什么?而是我们想要什么样的未来?
人工智能:未来1万年
这本书的下一章“超级智能”更加令人难以置信,它讲述了未来1万年的生活。我们想要被人接受吗?我们想让人工智能保持清醒吗?我们想要创造什么样的生活形式?我们想要在整个宇宙中传播什么文明?
在这方面,Tegmark描述了许多场景,比如:保护神(无所不知和无所不在的人工智能,最大化人类的幸福),动物园管理员(人类在人工智能动物园),被奴役的神(被囚禁的AI),征服者(AI摆脱人类)和自由意志的乌托邦(人类和人工智能共存)。每一种情况都要根据可行性、优点和缺点进行评估。
机器会感激人类创造它们吗?人工智能会尊重人类吗?人类是否应该尊重那些将生活和机器世界的精华融入其中的半机器人?人类能被上传、下载和克隆吗?人工智能会比人类拥有更高级的情感吗?在这些问题上没有达成共识(许多人甚至没有意识到这些问题),因此,Tegmark需要深入讨论关于AGI和人类的话题。
宇宙:未来10亿年及以后的世界
在大宇宙的这一章里,事情变得更加难以置信,尤其是在地球生命结束后(由于各种原因,包括太阳的扩张和地球上所有生命形式的沸腾)。这一章借鉴了宇宙学家Freeman Dyson的研究成果,建立在诸如暗能量、虫洞、Chandrasekhar极限和斯蒂芬霍金的黑洞动力装置等概念上。
“即使我们以光速行进,所有超过170亿光年的星系永远都是遥不可及的——这些是我们宇宙中超过98%的星系,”Tegmark解释说。
因为在这样一个浩瀚的宇宙中,通信速度很慢,所以“宇宙人工智能”需要在速度和复杂性之间找到平衡,并建立一个计算网络的层级结构。这样的超级智能将需要为不同层次的合作和控制进化出一种治理模式,甚至创造出新型的物质。如果“我们的”超级智能遇上另一种生命形式,会不会有武器或思想的冲突?
“如果没有科技,在未来数百亿年的宇宙中人类将会灭绝,这将使我们宇宙中所有生命的上演都只是短暂的转瞬即逝的美的闪现,使得热情和意义在近乎永恒的无意义中,不再有人体验,”Tegmark说。
“如果我们继续改进我们的技术,以足够的关爱、远见和计划来避免陷阱,那么生命就有可能在地球上蓬勃发展。甚至在我们祖先最疯狂的梦想之外,在数十亿年的时间里蓬勃发展,”Tegmark写到。
选自:yourstory
编译:网易见外智能编译平台
审校:nariiy