人类要为无人驾驶车设计道德准则
[ 摘要 ]研究人员结合了全球参与者贡献的约4000万个决策,为制定社会普遍接受的人工智能(AI)道德标准提供了重要借鉴
科技日报北京10月29日电 (记者张梦然)英国《自然》杂志近日在线发表了一项人工智能(AI)研究:美国麻省理工学院(MIT)报告了全球道德偏好调查,调查内容为:在无法避免的事故中,无人驾驶汽车应如何作出决定拯救哪一方。研究结果结合了全球参与者贡献的约4000万个决策,为制定社会普遍接受的人工智能(AI)道德标准提供了重要借鉴。
无人驾驶汽车不仅要能导航路线,还要在不可避免的事故中自行应对道德困境,因此,需要制定一套道德准则来指导AI系统处理这类场景。如果无人驾驶汽车大量投入使用,就必须先确定社会普遍接受的道德准则。
MIT研究团队此次搭建了一个名为“道德机器”的大型在线调查平台,用来统计全球公民的道德偏好。实验将参与者置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择不变道,或急转到另一条道上。参与者必须选择救谁,并决定汽车的前进路线。这项实验共记录了约4000万个此类决定。
研究人员识别出了许多共同的道德偏好,诸如救多数不救少数、救年纪小的不救年纪大的、救人不救动物。同时还发现了不同文化之间的道德偏好差异,例如,来自中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好;而来自收入差距较大国家的参与者在决定救谁时,往往会考虑其社会地位。
科学家最后指出,放手让汽车进行道德抉择之前,有必要进行全球性的对话,将我们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。