欧盟发布人工智能道德准则:欲另辟蹊径 成为道德AI领导者
当地时间4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。
同时,欧盟委员会宣布启动人工智能道德准则的试行阶段,邀请工业界、研究机构和政府机构对人工智能道德准则进行测试和补充。
这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:
1.人的能动性和监督 :人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
2.稳健性和安全性 :值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。
3.隐私和数据管理 :公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
4.透明度 :应确保人工智能系统的可追溯性。
5.多样性、非歧视性和公平性 :人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。
6.社会和环境福祉 :应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
7.问责 :应建立机制,确保对人工智能系统及其成果负责和问责。
对于这份人工智能道德准则,欧盟委员会负责数字化单一市场的副主席安德鲁斯·安西(Andrus Ansip)表示欢迎,他认为:“人工智能的伦理并不是一个奢侈特征或附加功能。只有有了信任,我们的社会才能充分受益于技术。有道德的人工智能是一个双赢的主张,可以成为欧洲的竞争优势:成为以人为中心的人工智能的领导者,让人们可以信任。”
欧盟委员会表示,其目前正在采取三步行动以促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点阶段,为以人为中心的人工智能建立国际共识。
欧盟委员会希望将上述人工智能伦理方法带到全球舞台。为此,欧盟委员会表示,将与日本、加拿大和新加坡等开展合作,试行阶段也将涉及来自其他国家和国际组织的公司。
在试行阶段之后,到2020年初,欧盟人工智能高级别专家组将根据收到的反馈审查评估清单,并根据评估结果并提出下一步行动。
此外,为了确保人工智能的道德发展,欧盟委员会表示,将在2019年秋季之前启动一套人工智能研究卓越中心网络;开始建立数字创新中心网络;与欧盟成员国和利益相关者一起,开始讨论制定数据共享模型。
上述人工智能道德准则由欧盟人工智能高级别专家组(AI HLEG)起草。
2018年,52位代表学术界、工业界和民间社会的独立专家受欧盟委员会任命,成立了欧盟人工智能高级别专家组,负责撰写人工智能道德准则并为欧盟提供政策和投资建议。
2018年12月18日,欧盟人工智能高级别专家组向社会发布了人工智能道德准则草案(Draft Ethics Guidelines For Trustworthy AI,以下简称草案),该草案当时被视为是欧洲“可信赖人工智能”的讨论起点。
草案为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
12月发布的草案还提出了一份可信赖的人工智能评估表,从责任、数据治理、为所有人设计、管理AI自治、非歧视、尊重隐私、尊重(和加强)人类自主权、稳健性、安全性、透明度共10个维度列举了可信赖人工智能的相关要求。
近年来,欧盟一再表示希望成为道德AI的领导者。对此,美国科技媒体《边缘》(The Verge)评论称,这在一定程度上是由目前的环境造成的,在涉及投资和尖端研究时,欧盟无法与美国和中国竞争,因此选择道德是塑造技术未来的最佳选择。(见习记者 张唯)
责任编辑:李兰松