对话MIT Media Lab联合创办人:人工智能面临道德困境,公众正丧失科学信仰 | 钛媒体独家
人机融合恐怖故事“创作者” Shelley
今年万圣节期间,一个名叫“Shelley”小说写作 AI 问世,这是世界上首次将人工智能与人类合作进行恐怖故事的创作(Human-AI Collaborated Horror Stories )的项目。
Shelley 名字取自英国著名科幻小说家玛丽·雪莱(Mary Shelley)。因她的长篇小说《弗兰肯斯坦》(Frankenstein,也译为《科学怪人》)是文学史上公认的第一部科幻小说,玛丽·雪莱被称誉为“科幻小说之母”。
在推特上,Shelley 持续发布新的恐怖故事的开头,当关注者进行回复之后,Shelley 根据回复的信息来确定符合逻辑的下一个句子继续往下创作,以此类推,用“故事接龙”(Round Robin)的形式,不断编写与关注者兴趣点高度一致的故事。
@Shelley_ai 目前活跃在推特上,并以 #yourturn 的标签与用户故事接龙创作恐怖小说。
据项目负责人介绍,Shelley 是一种多层的递归神经网络(RNN)和一种在线学习算法的组合,这种算法可以从人类的反馈中学习,希望以此探索人工智能与机器学习的创造能力与合作能力的极限。
由 Shelley 与推特用户创作的恐怖小说 Baby,依旧在持续更新,来源:推特 @shelley_ai
主导 Shelley 的正是赫赫有名的麻省理工学院媒体实验室,它于1985年由美国计算机科学家、麻省理工学院教授尼古拉斯·尼葛洛庞帝(Nicholas Negroponte)牵头创办。
在上世纪九十年代,实验室的研究成果诸如无线网络、无线传感器及网页浏览器等,被《连线》(Wired)等知名杂志报道,从而成为举世瞩目的研究机构。近年来,实验室聚焦于应用设计和技术解决社会问题。
日前,麻省理工学院媒体实验室副主任安德鲁·李普曼(Andrew Lippman)出现在了2017腾讯媒体+峰会上。作为麻省理工学院的高级研究科学家,李普曼自媒体实验室创办伊始便效力其中,三十几年来从事了大量关于数字化与技术的“未来项目”研究。
上述的 Shelley 就是当下实验室在深度学习(a deep-learning powered AI)中的一个案例。那么在人工智能时代下,从实验室出发,如何看未来的媒体形态和规则重塑?带着这一议题,李普曼在会上发表了演说,并在会后接受了钛媒体独家专访。
没有所谓的“人工智能”
在演说中,李普曼称,没有所谓的人工智能,现在媒体一直都在谈人工智能,但首先要了解的是,其实一切都是人类智能在新的平台上的延伸,这属于是人类的智能,“而我们现在面临的问题就是,要不要把人类的智能移到电脑上去”。
“我们至今也没有完全理解智能到底是什么。”李普曼说,当我们每次面对电脑进行编程的时候,都在想,“这并不是非常智能,这只是一个简单的机器”。
因为智能是一个非常复杂的东西,涉及到应用不同的方法去解析一个问题,需要不同的模型。不管是人工智能,或者说机器上的人工智能,当下最需要关注的是,我们是否已经足够了解人类的智能,并且把人类的智能可以应用于机器环境之中。
李普曼举例说,媒体是处在一个社会化的环境之中,在讨论未来媒体发展的时候,不可能只是谈论技术,“你不可能跑到一个媒体公司,跟对方说,我有一个新的技术,你快来用吧”。而是应该考虑如何把技术与社会联系在一起,并且通过技术引领社会成功,使社会变得更好。
“Shelley 的特别之处是,我们可以发现深度学习(Deep Learning)的机制真的可以非常好地理解故事情节和故事深度。我们在推特上给大家看 Shelley 的写作,不是让你看她写的故事好不好,而给大家一种概念,深度学习到底是什么样的,以及可以做到什么程度。 ”
在李普曼看来,深度学习主要是我们去制造一些机器,模拟人类所做的一些行为,我们通过不同的数据去训练,使其模仿人类,可以自己分析不同的数据和信息作出输出,这就是实验室正在做的事情,虽然它们目前并不能达到人类能做到的程度。
人工智能的道德判断困境
李普曼发现,无人驾驶是目前将人工智能结合得较好的应用。既然自动驾驶是人类智能的延伸,那么它将面临着一个“道德判断”(Moral Judgement)的问题。
这是在当下讨论 AI 时很少被提及却角度很特别的问题。李普曼描绘了一个相对极端的场景——假如无人驾驶汽车发生了故障而不可避免要致使行人遭遇伤害,而此时面对的人属性不同,有可能是好人,有时候也是坏人,或是老人与年轻人,或是男人和女人,那么此时,自动行驶的汽车该如何做出选择?
这让钛媒体联想到了伦理学史上著名的“有轨电车难题”:假设你在一个铁轨变道闸的控制杆前,远处有一辆失控的火车冲来。铁轨在你这里一分为二,一边有5个人,一边有1个人。如果你什么都不做,火车撞死5个人,但如果你选择变道,撞死一个人,你会怎么选?
“电车难题(Trolley Problem)”是伦理学领域最为知名的思想实验之一,最早是由哲学家菲利帕·福特(Philippa Foot)于1967年发表的《堕胎问题和教条双重影响》论文中提出来。
面对这样的情形,传统意义上,功利主义(Utilitarianism)认为,杀掉1个人可以拯救另外5个人,是达到了最大的善,不应考虑一个人行为的动机与手段,仅看行为的结果带来的最大值;而康德学派(Kantianism)则会跳出来指责说,道德的判断是依据动机而不是结果,人不能作为利益的代价,此时你应该什么都不做。
这个思想实验揭示了道德判断的复杂性——如何在亲手杀一个人与睁眼看一群人死亡之间做出抉择。
李普曼把类似道德判断困境迁移到了自动驾驶之上。
“在不同的情景下,撞上去,到底是不是道德的?这会出现不同的判断,比如说你前面,如果是人的话,可能你就会避让,但如果前面是猫或狗,你可能就不会。而如果前面是个小孩子,你肯定就会避开。”
那么,自动行驶中的无人汽车到底该怎么做呢?
李普曼提出了这样的疑问,但是他并没有就此进行解答。他解释说,举例这个假设,并不是要讨论无人驾驶汽车该如何做出选择,因为他认为这并不是智能机器所能做出的选择。而更重要的是,通过这样的假设,我们必须意识到在人类整个技术发展的闭环之中,社会应该参与其中。
美国大众正丧失对科学和艺术的信仰
麻省理工学院媒体实验室的使命是“创造一个更美好的未来”。作为一个面向未来的实验室,很多项目一直为外界所不能理解而遭受指责,批评其研究并不切实际。
在采访中,李普曼也主动向钛媒体谈及在美国社会的一个现象就是,当下的美国大众,对于自然科学和艺术的信仰已经越来越浅,越来越少。
“我觉得这是很悲剧的,也是很现实的。”李普曼说。
但李普曼并没有就此埋怨公众,而是把这些原因归结为科学工作者和科学研究本身。他认为三个情况导致了这样的情形发生。
首先,科学家本身无法将科学很好地展示给民众,况且,在发现问题的过程中,科学研究本身也会失误。在科学研究中,这是很正常的现象,但是如果公众知道他们犯错之后,很容易就会失去信任。
其次,科学家并没有做好宣传。当下美国出现了新的信仰,甚至是反科学的信仰,有些活动是有序组织的。
“比如,你要销售一个产品,你就穿上一些实验室工作人员服,显得非常专业和让人信服。可是,现在没有人会用这种做广告,因为你要真的穿了个工作人员服,或者是实验服的话,大家会觉得这肯定是骗人的。”
除此之外,科学界大部分给人的感受是距离实际生活很远,就算现在舆论场都在热议的人工智能,也离大部分人的日常生活比较遥远。
因此,李普曼告诉钛媒体,为了扭转这样的局面,实验室目前正在努力把技术和社会融合,并且让公众可以参与到技术研究之中,并且尝试以一种非常亲民和接地气的方式来宣传科学原理和知识点。
实际上,我们可以发现,无论是实验室在社交网络上主导以 Shelley 这样的人机交互的人工智能项目,还是李普曼当天演讲和采访中一直所强调的观点,都可以看出来美国的科技精英们正努力做的同一件事情——融合前沿技术和社会现实发展的需要,重塑高冷的科学研究在大众心中的形象和认知。
以下是钛媒体独家对话安德鲁·李普曼(Andrew Lippman)部分实录:
钛媒体:麻省理工学院媒体实验室在过去成就斐然,最近这些年你们重点关注的项目有哪些?
Andrew Lippman:我们的实验室有30个工作人员,但是有150个学生,也就是说,我们有150个项目在同时进行,它们涉及到了不同的种类。我刚分享的演讲并不是说我从事的工作,我是代表整个新闻实验室谈一下我们的项目。
整个实验室有生物专家,比如研究改善衣服的质地,有研究材料的项目,有人做的是媒体研究,还有做“智慧城市”或者说用技术来改变城市的。他们用不同的技术来做不同的产品。这样我们可以解决当前很多国家面临的一些问题,人类之间不同的分歧,作为整个社会的多元性,这也是我们项目之一。
所以,科学、工程、艺术方面的项目我们实验室都有。因为人类的潜能只有通过学习科学和工程、艺术,所有的这些领域来实现。所以,如果说整个实验室来看的话,最好的描述方式就是,我们总的目标就是来帮助人类发现他的潜力,自然科学、工程、艺术都是我们理解人类、发现人类潜力的手段。
钛媒体:那在这众多的项目之中,你比较感兴趣项目是什么?
Andrew Lippman:这个真的很难回答。因为我觉得每一个项目,我们做的所有事情都有价值。所以,我很难区分这个项目有趣,还是那个项目更有趣。但是,我可以告诉你,就像我在我报告当中说的一样,我不知道中国怎么样,在美国,现在对于自然科学和艺术的信仰是越来越浅了,越来越少了。我觉得这是很悲剧的,也是很现实的。
钛媒体:为什么说美国民众正在失去科学和艺术的信仰呢?
Andrew Lippman:在自然科学方面,有三个原因导致了这个结局。第一个就是,科学家通常没法很好地把科学展示给大众。他们通常是发现问题,或者发现错误,或者他们也在犯错误。如果他们犯了错误的话,公众就会失去对他们的信任。比如,在营养方面,在饮食方面错误太多了。他们有的时候研究出来这个东西好或者不好,过了几年之后有人颠覆了,所以大家就不可以信任了。
另外一个理由就是,他们没有做很好的宣传。你经常会看到一些新的信仰,或者反科学的一种信仰。有很多的活动,我觉得有些活动是有序组织的,几年前在美国就有这样的事件,比如,你要销售一个产品,你就穿上一些实验室工作人员服,显得非常专业和让人信服。可是,现在没有人会用这种做广告,因为你要真的穿了个工作人员服,或者是实验服的话,大家会觉得这肯定是骗人的。
第三个理由,在科学界通常给人的感觉是跟人的实际生活很远的。比如,我们都在说人工智能,人工智能其实与我们的现实生活,普通的日常生活也是很远的。所以,科学家在做的事情是什么?就是感觉跟我们生活很远。这三点综合起来是让自然科学不那么让人喜欢的原因。
现在我们做的事情就是希望把科学和社会结合起来、融合起来。有一些项目是与学习有关系的,那么我们的学生就会很早的时候了解一些科学原理。我们做的一些项目,是可以用一种非常亲民的、接地气的方式来宣传科学原理、科学知识点。
我们让科学家跟我们一起合作,让公众可以更好地了解,我们实验室确实有很多很擅长这方面工作的人员。这是我们实验室做得很有意义的一个事情。我想我们实验室在这个方面应该是全球领先的吧。
钛媒体:实验室有许多科学家和艺术家在进行前沿科技的研究,面对大众对科学和艺术失去信仰的情况,该如何让他们来理解实验室的所做出的努力和成果?
Andrew Lippman: 我们做的其中一件事情就是,我们做的技术是可以让公众参与的。比如说,我的学生做了一个 Pop-pop 这样一个出版项目。这个项目是做什么的?我想是很难翻译成中文的。在传统我们要发表的东西,就是你写一个东西,然后同行来评论。这个同行评论的过程非常低产、低效,科学可以做得更好。
你可以更好地比较,比如DNA可以做的事情,DNA 的结构,比如一个科学家发现了 DNA 的结构,如果你可以把这个 DNA 的结构与诺贝尔科学奖获得者发现的 DNA 的结构进行比较的话,那肯定会比人的评论好很多,比人的比较好很多。出版界有这样一个优势,就是他有所有的资源,如果用自然科学的方法进行比较的话就会高效很多。
还有一个例子,芝加哥政府现在对这个项目很感兴趣,为什么?因为它不是大家选举说对这个项目很感兴趣,是因为这种出版的环境会让公众更加相信这个出版物更加科学,因为是通过自然科学的方法比较得出的一个结论。
钛媒体:刚才你谈到了实验室当下众多项目,实验室融合了自然科学、工程学和艺术等,在这些学科的跨界的过程中,它们主要会面临哪些冲突?实验室如何处理这种情况?
Andrew Lippman:恰恰相反,它们之间并没有太多的冲突。给你一个例子,Tod Macmover 几年前就开始创造一个城市交响乐,他在多伦多做这样的城市交响乐。他是怎么做的?他让整个城市的所有人都把声音录下来,把这个城市的声音录下来,所有这些声音,变成了他的交响乐当中的一部分。
所有的这些声音,用一种技术连起来,这个技术是 Tod 发明的。他创造出来的东西是这个城市的声音,但是他用到的元素是自然界的,是这个城市里面真实发生的。而这个技术是 Tod 发明的高科技的技术。所以我觉得这些科技和艺术是不冲突,我认为科技和艺术可以完美融合。
钛媒体:今天在会场,腾讯研发的 Dreamwriter 已经能进行相对完整新闻写作,刚刚在演说中,你也将你们实验室研发的写恐怖小说机器人 Shelley 作为案例提及,您认为这些 AI 技术的发展会对产业有怎样的影响?以及对人类文字工作者有哪些建议?
Andrew Lippman:我给你简单地解释一下,在媒体界,你通常报道的是什么?是故事。但是,你不知道这个故事的历史。这个新闻对你来说也是新的,你不知道背景,你也不知道这可能与其他的故事有什么联系。
在报道这个故事的时候,记者只能介绍它的表面,你现在接触到的所有的东西,你也没有能力进行批判,也没有能力添加东西。现在的现实就是这样,没什么错。
人工智能可以帮助你什么?可以给你背景,可以给你上下文,给你一个语境,可以帮助你问更好的问题、更有深度的问题,对每个人都有帮助。但是对媒体、记者更加有帮助,因为媒体的记者就不需要只是关注当下的故事的发生,而是可以根据背景历史和过去的故事,来问出更有深度的问题,也可以帮你写出更好的报道。
Shelley 这个例子也是一样的,给大家的概念就是,写出根据前面的故事已经发生的衍生出更好的,更相关的故事,我觉得这个是完全可以帮助到媒体界的。(本文独家首发钛媒体,作者/李程程)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App