还得莎士比亚出马?看机器人的道德养成记

IT思维  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

一本好书就能让我们变得更好吗?其实并不然。同样,通过经典的文学名著来教授机器人伦理道德存在风险,因为文学经典中往往存在着一些道德雷区。

《我,机器人》(I, Robot),是美国作家艾萨克·阿西莫夫出版于1950年的科幻小说短篇集,书中的短篇故事各自独立,却拥有共同的主题,探讨人类与机器人间的道德问题。

在书中,机器人们被编程必须遵守机器人三大定律: 一,机器人不得伤害人类,或因不作为使人类受到伤害; 二,除非违背第一定律,机器人必须服从人类的命令;三,除非违背第一及第二定律,机器人必须保护自己。

但是,在艾萨克·阿西莫夫的《说谎话的机器人》这本小说中,科学家研制出了一个理解“精神伤害”概念的机器人(Herbie)。和托马斯·哈代(英国诗人、小说家)小说或易卜生戏剧中的角色一样,机器人很快会意识到自己被人类设置为一个无论如何都会人类优先、甚至为了服务人类而不惜伤害自己的处境设定中,因此机器人不再愿意为人类服务,甚至开始伤害人类。

小说中,由于制作中的一个失误,一台名为赫比(英语:Herbie)的HRB-34型机器人具有了心灵感应的能力。由于赫比仍然受机器人第一定律的约束,他巧妙地用谎言来避免伤害人类的感情。 但当谎言被揭穿时,人们还是受到了伤害,尤其是机器人心理学家苏珊·凯文(英语:Dr. Susan Calvin)博士。而苏珊·凯文出于感情上的报复心理,让赫比陷入了一个无法解决的逻辑悖论,最终导致了赫比的崩溃,成为了一堆没有任何思想和道德的破铜烂铁。

当我们进入一个机器人的新时代,随着技术的飞速发展,人工智能专家们开始考虑如何制造的和赫比一样有思想有道德的机器人。 如何让机器人拥有和人类一样复杂的道德体系和伦理关系概念呢?如何让机器人获得人类口中所谓的“良知”呢?机器人专家们试图通过教会人工智能在道德的基础上思考和行动。 那我们应该用什么例子来教会机器人道德,使其明辨是非呢?

机器人专家认为可以通过输入故事的方式让机器人从中学习一些人类的道德和思维模式。目前,乔治亚理工学院交互式计算学院的科学家正在开发一种教学机器人,能够从小说等虚构人物中学习人类道德系统。

但在很多人看来,这是非常具有讽刺意味的,他们称之为系统版的“堂吉诃德”。

众所周知,西班牙作家塞万提斯小说《堂吉诃德》中的主人公堂吉诃德是一位尊贵而迷人的西班牙绅士,喜好读骑士小说,整日耽于幻想,即使有着高度的道德原则、有着对正义的坚贞追求等优秀品德,但正是这种有些疯狂可笑但又有正义感的双重性格性格导致了他最终的悲剧。

倘若让人工智能通过学习我们人类所认为可以称为道德衡量尺度的名著中吸取经验和教训,那么研究人员就不得不考虑要规避一些现实的问题,但这非常难。

许多小说和戏剧都将会误导和怂恿机器人去做出自己的选择。人类喜欢和认同的文学著作种类繁多,并不是所有的文学著作都适合给机器人输入学习,例如人类喜欢的鬼怪类的文学作品,或者那些通过使用神奇魔法摆脱困境的故事等等。

还得莎士比亚出马?看机器人的道德养成记

尽管这些文学作品中都隐藏着一些人类最基本的冲突和矛盾,但人类如何通过超自然的能力来摆脱困境等不现实的想法,都不利于为机器人塑造道德。

也许我们可以从文学作品中选择一些偏叙述类的作品,但是不要选择类似于《格利弗游记》(书中强调人类比不上动物)或《爱丽丝漫游仙境》等与现实世界严重脱节的作品。 有一点要明确,即使是我们认为不带幻想色彩的文学作品中,也会有一定的误导性。例如《堂吉诃德》的故事会鼓励机器人像书中主人公那样去行动和思考。

当然,一个文学作品可能在道德上是有启发性的,机器人并不会单一模仿一个角色,而会从各种不同类型的人身上选择性的吸取道德经验。

例如,英国女作家乔治·艾略特的《米德尔马契》、莎士比亚的《奥赛罗》以及古希腊诗人荷马的六音步史诗《伊利亚特》,在这些文学作品中,你希望机器人能以哪个人物为榜样呢?具体以谁为道德标榜呢?机器人显然知道选择学习哪个人物能给自己带来好处。

20世纪后半叶的许多经典文学作品中:犯罪剧情小说《天才雷普利》中的雷普利先生(一个充满智慧和不道德的杀手)和美国长短篇小说家约翰·厄普代克的“兔子四部曲”中的“兔子”哈利·安斯特朗(一个淫荡和贪婪的慈善家)以及俄裔美国作家弗拉基米尔·纳博科夫的《洛丽塔》中很黄很暴力的主人翁等等。

以上这些经典文学作品都不适合给机器人输入,这不仅不会帮助机器人建立良好的道德准则,反而容易产生适得其反的结果。因此,文学名著的选择及其重要。

据人工智能专家Mark Reidl说:“机器人的思维过程是在那些小说主人翁和作者的思维方式中不断吸取经验的一个杂糅整合的过程。

机器人通过文学作品中学习到的道德要比人类的学习过程快很多。文学作品的输入对于人工智能来说,可以提供一种所谓的“替代性记忆”,有助于机器人未来的决策。

科学家们相信,文学作品的叙述方式展现了社会上各种各样的人类价值观体系,当然这些价值观有好有坏。几乎所有的专家都希望机器人可以避免接受诸如莎士比亚的《李尔王》和是英国作家托马斯·哈代的《无名的裘德》等中的悲剧人物的道德思想模式。

戏剧导演往往觉得悲剧故事总是缺乏正确道德方向的指引, 直到19世纪中期,有着好的结局的人物故事的出现让人们开始重新审视和思考,例如《李尔王》中最受宠疼的女儿寇蒂莉亚,不愿把亲情当成交易最终嫁给了自己心爱的人,过上了幸福的生活。

维多利亚时代的评论家对《无名的裘德》的道德虚无主义态度表示强烈反对,因此当作者托马斯·哈代看到读者反应强烈时,便决定放弃小说的写作。

这些具有强烈对错意识观的叙述类文学作品可能让机器人道德价值的构建变得混乱不堪。查尔斯·狄更斯的小说以及许多维多利亚时代的作家们都强烈表明,应当不惜一切劝阻年轻女性的婚前性行为现象,如果女性进行了婚前性行为,那她的命运一定是凄惨的。但是为什么小说的结局却又是美好的呢?这很矛盾和讽刺。

被输入了最近五个世纪的欧洲文学作品的机器人一定会认为,婚姻是所有人幸福的归宿。 同时也会让机器人认为,人类通过伪装自己的情绪和思想比那些追随本心的人更容易被社会所接纳。

许多的文学作品若不是呈现人性的道德理论,那基本都会是经验之谈,其中最常见的一个经验就是不要相信你从别人那里听来的消息,要眼见为实。例如《李尔王》中李尔的长女高纳里尔和次女里根用尽花言巧语欺骗自己的父亲自己有多爱他,但是任何人类的读者都能看得出,这是假象,她们其实一点也不关心李尔王。

但是机器人能参透背后的含义吗?再比如,简·奥斯丁的小说《傲慢与偏见》中可以看出,任何巧舌如簧、油腔滑调的男士都不靠谱,但是机器人和人工智能却看不出看似句句都是肺腑之言的科林斯先生世故、阿谀奉承、对生活和感情的态度基本上是完成任务的路数?

所以也许应该给予机器人更简单的文本设置。 是选择《伊索寓言》还是《新约》?还是畅销儿童小说家伊妮·布来敦的经典冒险名著?如果人工智能看出《伊索寓言》中不同动物角色所展现的性格特点,那么《伊索寓言》将会是个不错的选择。倘若机器人信奉上帝,那么《新约》会是个很好的有助于道德塑造的文学作品。而伊妮·布来敦的作品,则容易引入一些可疑的道德价值判断。

因此,在所有的文学类型中,似乎只有传统的侦探类故事才具有可靠的道德观念,即使它能给机器人带来对人类行为的不人道的观点。

英文来源:the guardian

作者:John Mullan

编译:尚兔

随意打赏

机器人 道德机器人的电影人类和机器人养成机器人莎士比亚
提交建议
微信扫一扫,分享给好友吧。