不用担心伤害人类 机器人要有明确的行为负责人

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

不用担心伤害人类 机器人要有明确的行为负责人

著名科幻小说艾萨克・阿西莫夫(Isaac Asimov)在他的小说中描述了未来人类对机器人行为的三定律:不能伤害人类、服从人类命令和保护自己。如今阿西莫夫描绘的未来正一步步向我们走来,英国标准协会(British Standards Institute,简称BSI)正式发布了一套机器人伦理指南,这套指南比阿西莫夫三定律更加复杂和成熟。

英国标准协会是一个有着100多年历史的英国国家标准机构,在世界范围内都具有很高的权威性。近日发布的伦理指南的全称为《机器人和机器系统的伦理设计和应用指南》,主要为机器人设计研究者和制造商提供指导,让他们能正确判断生产某个机器人的道德风险。该协会表示发布这个指南最终的目的是保证人类生产出来的智能机器人能够融入人类社会现有的道德规范里。

这个指南的文件代号为BS8611,发布于9月15日英国牛津郡的 “社会机器人和 AI ”(Social Robotics and AI)大会上。有专家表示表示,这是业界第一个关于机器人伦理设计的公开标准。

该指南内容虽然用十分专业的词汇表述其内容,但所描绘的场景和科幻小说并不二致。在这里机器人有可能欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑避免的。指南给出了一个广泛的原则,即机器人设计的目的不应是专门或主要用来杀死或伤害人类的;人类是责任的主体;在设计时要确保能找出某个机器人的行为负责人。

指南还聚焦了一些有争议的话题,例如当机器人设计时就为了与儿童和老人互动时,人类是否应该与机器人产生感情联系。有专家表示,这种场景就是典型的机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但很多人并不这么认为。有研究印证这种担忧:最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。

同时也有科学家表示,指南中的有些建议难以执行,例如指南建议设计者应关注机器人的透明性,但在实际操作中很难应用,尤其是目前快速发展的深度学习系统,其具体的运行方式并不被人类所了解。这类的人工智能体系并没有固定的程序来指导它完成任务,它是通过数以百万次的尝试和学习,才自己找出解决方法的,通过这种方法得出的决策过程,很多时候是人类设计者无法理解的。

指南中还提到了机器人的偏见和歧视的问题,由于深度学习系统很多时候是在使用互联网上的数据进行学习,而这些数据本身就带有偏见,这就导致深度学习的结果也带有偏见。

对于机器人成瘾指南并没有给出明确可循的准则,类似这样的问题需要在未来的工作中补充完善。(王蔚)

随意打赏

机器人代替人类机器人统治人类机器人取代人类机器人与人类机器人和人类
提交建议
微信扫一扫,分享给好友吧。