英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

艾萨克·阿西莫夫(Isaac Asimov)曾在他的科幻小说里描述了规范机器人行为的三定律,包括:不能伤害人类、服从人类命令和保护自己。

现在,英国标准协会正式发布了一套机器人伦理指南,比阿西莫夫三定律更加复杂和成熟。我们的社会已经到了要给机器人制定行为规范的时候了,这不禁让人产生一种科幻与现实交织的奇妙感觉。

英国标准协会(British Standards Institute,简称 BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是 《机器人和机器系统的伦理设计和应用指南》 (以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们 如何对一个机器人做出道德风险评估 。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。

这个标准的文件代号为 BS8611,发布于 9 月 15 日英国牛津郡的 “社会机器人和 AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授 Alan Winfield 表示,这是业界第一个关于机器人伦理设计的公开标准。

文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。

《指南》开头给出了一个广泛的原则: 机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性

《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。

英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

谢菲尔德大学教授 Noel Sharkey 认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。

《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解 AI 系统(尤其是深度学习系统)是如何做出决定的。

英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。

《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。

英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

机器人的偏见是会直接影响技术应用的。 它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。

现在已有的例子就是,声音识别系统对于女性的理解要弱一些,再比如机器识别白种人的脸更容易,识别黑人的脸更难。 长远来看,在未来的医疗应用中,机器人在诊断女性和少数族群的时候,其专业程度会降低。

Sharkey 教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”

两周前,路透社有文章指出,有科学家表示性爱机器人会使人成瘾,因为机器人不会拒绝。

英国正式颁布机器人道德标准:不许伤害、欺骗和令人成瘾

《指南》 也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。

Via  The Guardian

延伸阅读:

计算机系统里的偏见和歧视:除了杀死,还有其他方法

调查显示性爱机器人可减少性疾病传播与非法性交易,你想跃跃欲试吗?


本文被转载1次

首发媒体 雷锋网 | 转发媒体

随意打赏

英国机器人超能机器人
提交建议
微信扫一扫,分享给好友吧。