超越“机器人三定律”?英国标准协会制定机器人道德标准
科幻作家阿西莫夫曾提出了“机器人三定律”。如今,随着机器人以及智能设备不断增多,简单的定律可能无法满足需求了。最近,英国标准协会(BSI)编写了一份文档(编号 BS8611),以帮助设计师们创造出更有道德感的机器人。
据 卫报 的报道,在牛津大学召开的 Social Robotis and AI(社交机器人和人工智能)大会上,相关领域的专家谈到了这份文档,并发表了自己的看法。
西英格兰大学的机器人学教授 Alan Winfield 认为,这份文档代表了“把道德价值融入机器人和人工智能的第一步。“据我所知,这是首个关于机器人道德设计标准的正规文档,” 他说,“它比阿西莫夫的定律要更加复杂。基本上,它讲述的是如何对机器人做道德风险的评估。”
(图片来自 denofgeek )
这份文档定义了一些宽泛的道德准则,比如机器人的设计不应该以杀害或者伤害人类为唯一或首要目的;责任人应该是人类而非机器人;任何机器人都应该有负责人,而这个人应该为机器人的行为负责。此外,文档还提到了一些有争议的话题,例如,人类是否应该与机器人建立感情联系,特别是那些与儿童或老人交互的机器人。
文档还建议设计师遵循透明化的原则。不过,这可能难以实现。“人工智能系统,特别是深度学习系统的问题在于,你很难了解它们做决策的原因,” Alan Winfield 说,“在训练过程中,深度系统使用了互联网上的大量数据,但是这些数据是有偏见的。这些系统倾向于关注中年白种人,显然这是一场灾难。它们可能会吸收人类的所有偏见,或者说,这是一种潜在的风险。”
(图片来自 QZ )
一些宽泛的社会问题也出现在文档中,比如“对机器人的过度依赖”。不过,在如何避免这些问题上,文档并未给设计者指出明确的方向。“你与机器人共处一段时间后,它一直给予你正确答案,于是,你开始信任它并且变懒了。然后,它给了你超级愚蠢的建议,” 谢菲尔德大学机器人和人工智能教授 Noel Sharkey 说。
英国标准协会的 Dan Palmer 也评论了这份文档。他说,“通过机器人和自动化技术,生产过程会更有效率、更加灵活和更具适应性,这也是制造业发展的必要阶段。因此,我们有必要辨识和处理一些道德问题,比如对机器人的过度依赖。这份新指导告诉人们如何处理不同的机器人应用,从而帮助机器人和自动化系统的设计师和用户更好地适应新的工作领域。”
题图来自 卫报