欧盟人工智能道德准则草案:可信赖人工智能的讨论起点
2018年12月18日,欧盟人工智能高级别专家组(AI HLEG)正式向社会发布了一份人工智能道德准则草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下简称草案),该草案被视为是欧洲制造“可信赖人工智能”的讨论起点。
草案共37页,第一章通过阐述人工智能应该遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。根据第一章所阐述的原则,第二章给出了实现“可信赖人工智能”的准则和详细要求,既涉及道德目的,也涉及技术稳健性,既有技术层面的要求,也有非技术层面的要求。第三章则为“可信赖人工智能”提供了一张具体但非穷尽的评估列表。
草案指出,其提出的准则并非旨在取代任何形式的政策和规章,同时,这些准则应该被视为活文件,需要定期更新以适应技术发展的需求。
目前,草案处于征集意见阶段,征集时间将于2019年1月18日截止。据悉,该草案将于2019年3月提交到欧盟委员会。
这份草案首先为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
围绕这两大要素,草案给出了“可信赖人工智能”的框架。草案强调,其目的不是给出另一套人工智能的价值和原则列表,而在于为人工智能系统提供具体实施和操作层面的指导。
草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题。这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。
位于列表第一的争议性问题是“未经知情同意的识别”。有迹象表明利用人脸识别对公民进行监控的情况开始在欧洲出现。不久前,英国警方宣布,他们正在伦敦对圣诞节的购物者们进行人脸识别的测试。人工智能中的人脸识别等技术使得公共或私人组织能够有效的识别个人。草案认为,“为了维护欧洲公民的自主权,人工智能的这一使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监视与大规模监视对于实现“可信赖人工智能”至关重要。
另一个专家组热议的话题是“隐蔽的人工智能系统”。发展人工智能的其中一种目标是建立像人一样的系统,但越来越像人的人工智能系统却会给人类带来了困扰。草案认为,一个人必须总是知道他是在与人类还是机器进行交流,这一点也应是AI开发和管理人员的职责。专家组提出,人们“应当牢记,人与机器之间的混淆会产生多种后果,比如依恋、影响或降低作为人的价值。因此,人形机器人和机器人的发展应经过仔细的道德评估。”
“致命自主武器系统”也是专家组重要关切之一。草案称,目前有数量未知的国家正在研发自主武器系统。这些武器系统中有能够选择性瞄准的导弹,还有具认知能力、可在无人为干预的情况下决定作战对象、时间和地点的学习机器等。专家组认为这会引起不可控的军备竞赛。
对于以上这些争议话题,草案给出了一个关键性指导准则。首先是AI的开发、部署和使用应以人为中心,须反应公民的福利、无害、人类自主、争议和可解释性等社会价值观和道德原则。其次是评估AI对人类及其共同利益的可能影响,尤其需要注意儿童、残障人士和少数群体等弱势群体的情况。第三是人们需要承认并意识到人工智能在为个人和社会带来实质性好处的同时也可能产生负面影响,人们需要“对严重关切的领域保持警惕”。
报告如下
责任编辑:李兰松