美媒:人类担心AI统治世界?10年内没啥可怕的
网易科技讯10月26日消息,据科学美国人杂志报道,伊隆・马斯克(Elon Musk)最新宣布,旗下特斯拉电动汽车公司制造的所有汽车都将支持全自动驾驶功能。但这需要让人相信,特斯拉的AI(人工智能)技术能够确保所有汽车都能实时读取数据,并对不同的情况做出反应。
现在,AI的确可以执行许多令人感到惊奇的事情,比如上周AlphaGo电脑程序的开发者报告称,他们的软件已经学会了在伦敦复杂的地铁系统中导航,就像个“本地通”。甚至就连白宫也紧跟潮流,于数日前发布报告,宣称将帮助美国应对未来,届时机器可能会像人类那样思考。
可是,已经研究AI数十年,并尝试解决AI基本问题的计算机科学家奥伦・埃齐奥尼(Oren Etzioni)认为,在人类担心机器将接管世界之前,机器的进化之路依然十分漫长。埃齐奥尼如今是艾伦人工智能研究所(AI2)的首席执行官,这个组织是微软联合创始人保罗・艾伦(Paul Allen)2014年创建的,重点是研究AI的潜在益处。艾伦认为,好莱坞甚至其他研究人员都将AI描述得过于邪恶,甚至可能威胁人类生存。
AI2启动的AI项目并不十分华丽,比如基于AI、支持学术研究的搜索引擎Semantic Scholars。但他们却专注于解决AI领域的难题,比如推理等。《科学美国人》最近在纽约AI大会上采访了埃齐奥尼,他担心当前公司过多吹嘘AI的现有能力,特别是机器学习技术(又称深度学习)。这种技术可运行大量数据集,通过网络模拟人类大脑的神经网络,以便教授计算机自己解决具体问题,比如识别模式或识别照片中的特定目标等。
埃齐奥尼还反思为何10岁孩子都比谷歌旗下AI公司DeepMind的AlphaGo更加聪明,以及最终为何需要开发出AI“监护人”程序以便确保其他AI程序不会变得更危险。以下就是采访摘要:
问:在寻找研发AI技术的最好方式时,AI研究人员之间是否存在分歧?
埃齐奥尼:有些人已经看到了一点儿未来。我们在许多AI领域都取得了巨大进展,比如语音识别、无人驾驶汽车以及AlphaGo等。所有这些都是值得称道的技术成就。但是如何解释它们呢?深度学习显然是非常有价值的技术,但我们在研发AI过程中还有许多问题有待解决,比如推理(即机器人可理解而仅仅限于计算2+2=4)、获得背景知识(机器能用于创造情境)等。自然语言理解是另一个问题。即使我们开发出AlphaGo,但我们依然没有程序能够解读和充分理解一个段落甚至简单的句子。
问:有人认为,深度学习是AI领域最好的技术。深度学习到底有什么作用?
埃齐奥尼:当你有大量数据需要处理时,而计算机又知道它们代表的意义,那么你将具备强大的计算能力,你可以尝试找出数据中隐藏的模式,深度学习在这个领域堪称无敌。此外,AlphaGo可以处理3000万个与位置有关的数据,这些位置可教授AI程序在不同的情况下采取正确行动。还有其他例证,比如放射图像,它可以显示是否存在肿瘤,而深度学习程序可以调整颜色,确定这份图像是否是之前看过的。深度学习还能够执行很任务,这是真正的前沿技术。
问:那么深度学习面临哪些挑战?
埃齐奥尼:问题是系统有了智慧还不行,还必须有更多数据可被用于训练它。以学生的标准化考试为例,比如SAT或纽约高考数据。以前,为了获得高分,智能程序可通过3000万份被打上成功或不成功标记的考卷进行学习,而新的AI程序需要更复杂、更多互动的学习过程。AI还可通过设备、对话或读书学习。尽管深度学习有如此明显的优势,但10岁孩子也能做到这些,比如选择一本书、读一个章节、回答与其相关的问题等。
问:为何AI能够通过标准考试意味着其取得巨大进展?
埃齐奥尼:实际上,我们已经在AI2启动了这样的研究项目。去年,我们宣布悬赏5万美元,鼓励人们开发可通过8年级标准科学测试的AI软件。来自全世界的780多个团队耗费数月时间,但最终没有人的分数超过60分。这为我们提供了AI现状的现实、定量评估。
问:如何才能让顶级AI系统正确回答问题?
埃齐奥尼:通常情况下,语言中都隐藏着各种线索。最成功的系统可以从科学文本和其他公共资源中收集信息,然后利用调节信息检索技术为每个多选问题确定最佳答案。举例来说,什么是最好的电导体:塑料勺、木叉还是铁蝙蝠?AI系统非常善于运用公式,可以在大量常见的文件中检测电、铁或导电之间的关系,可以很轻松地给出答案。为此,有时候AI系统可以采取快捷方式,非常迅速地给出答案。之所以没有系统获得及格分数,我只能说这些系统都使用统计学进行猜测,而非仔细推理。
问:AlphaGo背后的DeepMind团队现在已经开发出新的AI程序,通过使用外部存储系统超越深度学习。他们的工作对创造更像人的AI有何影响?
埃齐奥尼:在移动深度神经网络领域,DeepMind依然是领跑者。这种特别贡献非常重要,但在推理方面却不算太大突破。现有的系统可以很轻松地完成类似任务,但这里涉及到神经网络如何通过例证学习执行任务的问题。总体来说,DeepMind迈出了一大步,但对于人类来说依然是一小步。
问:有人将深度学习、机器视觉和记忆等技术结合起来,以开发更完整的AI吗?
埃齐奥尼:这是个非常有吸引力的创意,实际上已经有许多类似研究。我在华盛顿大学担任教授时,就曾基于这个想法,利用互联网充当AI系统的数据库。我们建立了名为信息公开提取的技术,它可以为50亿个网页做索引,并从中提取语句,试图将它们变成机器可操作的知识。这台机器拥有超自然的能力,可以快速吸收这些网页和所有句子,问题是那些文本或图片上的句子很难吸收。人类大脑拥有不可思议的能力,计算机科学家们至今还未破解。这种能力可以映射出推理等反应。但是迄今为止,我们还么有找到机器能像人脑那样工作的机制。
问:你曾提及,要想达到人类水平,AI的研发至少还需要25年时间。你所谓的人类水平AI指什么,为何给出这样的时间框架?
埃齐奥尼:人类水平AI能够真正地理解自然语言、拥有人类智慧的广度、能够玩PokemonGo、走过街道等,这种多样性是人类智慧的标志,而我们今天能做的就是研发“狭隘的学者”,以便其能在某些方面表现更突出。至于25年的时间框架,我曾询问人工智能发展协会的朋友:计算机系统何时能在广义上变得像人类那样聪明?没人认为10年内能够实现这种假设,67%的人认为至少要到25年之后。25%的人认为永远无法实现。他们错了吗?你会选择相信谁,把握AI脉搏的人还是好莱坞?
问:为何如此多令人尊重的科学家和工程师警告称,AI可能灭亡人类?
埃齐奥尼:对于我来说,很难推测史蒂夫・霍金(Stephen Hawking) 或马斯克警告AI威胁的动机。我猜,谈论黑洞可能是非常无聊的,因为这是个缓慢进化的主题。但有一件事我要说,当他们谈论AI变得邪恶或引发潜在灾难性后果时,他们总会插入限定词,比如“最终”或“可能”。我同意这样的观点,如果我们谈论1000年后或无限未来,AI很可能导致人类灭绝。但我认为,这种长期讨论不该分散我们的注意力,我们应该更关注现实问题,比如AI与就业、AI与武器系统等。
问:鉴于AI存在的缺点,我们应该担心汽车制造商对无人驾驶汽车与日俱增的兴趣吗?
埃齐奥尼:我不是那些没有方向盘或刹车板的无人驾驶汽车的忠诚粉丝。鉴于我对计算机视觉和AI的了解,我对无人驾驶汽车感觉十分不舒服。但我是综合系统的支持者,比如当你在车上打盹时,AI能帮你刹车。人类司机和自动系统相结合可能比单纯的人类司机或AI驾车更安全。这很复杂,将新技术融入到人类日常工作与生活中同样不容易。但我不确信这种解决方案是否能有效。
问:谷歌、Facebook以及其他大科技公司近来联合推出了“人工智能造福人类和社会合作组织”,为AI研究设定道德和社会规范。对此你有何看法?
埃齐奥尼:世界上领先的科技公司联合起来思考这些事情是好事,我认为他们这样做是回应人们的担忧,即AI是否会接管世界。许多恐惧完全被夸大了。即使我们有了无人驾驶汽车,也不会立即造成破坏性影响。马斯科等人谈及的AI对人类生存威胁至少是数十年乃至数百年之后的事情。可是,目前有许多非常现实的挑战:自动化、数字化技术以及AI都在影响就业,无论是机器人还是其他技术,这非常令人担忧。无人驾驶汽车和卡车会大幅改善安全,但他们也会对依赖驾驶谋生的大量工人造成影响。这个新组织谈论的其他事情也存在偏见。如果AI技术被用于处理贷款或信用卡申请,它们能否法律或道德规范吗?
问:你认为如何能确保AI遵守法律和道德规范?
埃齐奥尼:如果你是银行,利用软件程序处理贷款,你将无法藏身其后。一口咬定计算机做错了事不是借口,计算机程序可能参与了歧视行为,那是因为计算机系统需要使用许多变量和统计,以便寻找与其他变量有关的联系。如果它使用了影响决定的替代变量,那真会成为问题,对于人类来说也很难发现和追踪。为此,我们提议研发AI“监护人”,以监测和分析基于AI开发的贷款处理程序的行为,确保其遵守法律和道德规范。
问:AI“监护人”已经存在吗?
埃齐奥尼:我们已经发出呼吁,并开始研发这些程序。我认为,很快就会出现类似程序,其愿景非常被看好。我们希望AI“监护人”的创意能够应对《终结者》等好莱坞电影中对AI的误解,即技术变得邪恶,并成为庞大的垄断力量。(小小)