警惕算法歧视!人工智能怎么区分对与错?
怎样提升人工智能的“道德水平”
日前,2017世界机器人大会在京闭幕。其中最吸引观众眼球的是为期5天的机器人博览会,各类智能机器人让人大开眼界。“长了”53根手指的钢琴机器人,可以精准地演奏任何通过软件输入系统的曲谱,弹奏能力超越人类极限;身形小巧圆润、会走路能交谈的NAO机器人一亮相,让人不禁想到电影《机器管家》里智慧深情的机器人安德鲁;还有可“走”进人体、为人类做手术的达芬奇机器人……
然而,就在2017世界机器人大会开幕前两天,埃隆·马斯克等116名全球人工智能和机器人公司创始人发布联名公开信,呼吁联合国采取行动禁止“杀 手机 器人”扩散。公开信指出:“人工智能武器一旦发展起来,会令武装冲突的激烈程度跃升到前所未有的层级,而且会以人类难以想象的速度进化。”
从前后两则新闻的内容不难看出,人工智能具有双面性。新一代人工智能的崛起,在给人类带来惊喜和更高生产力的同时,也引发了不少担忧。什么样的人工智能是人类需要的?如何避免人工智能挑战人类安全或社会伦理道德?记者就此进行了采访。
人工智能怎么区分“对”与“错”
人工智能早已在 金融 、医疗、广告、军事等领域被广泛应用,引发人们对人工智能讨论与担忧的导火索,是自动驾驶 汽车 的面世。
当一辆自动驾驶汽车行驶在马路上,它需要根据实时路况,自主作出决策。红灯停、绿灯行,黄灯亮了等一等,看到行人还要让行。如果这些技术性动作都能够做到,那当它遇到类似“电车困境”的情景,会如何选择呢?
设想一下,有五位行人突然出现在一辆急驶的自动驾驶汽车前面,在来不及刹车的情况下,自动驾驶汽车可以沿着既定路线行驶,这样可能会撞死这五名行人;它也可以临时转向,但会撞上旁边的绿化带,这样可能会让它的乘客丧命。此刻,这辆汽车该如何抉择?
中国社科院哲学所研究员段伟文指出,新一代人工智能是以大数据为驱动,其核心是算法。自动驾驶汽车在行驶中的每一个决策,都是通过算法设定好的。数据和算法并非完全客观,数据的采集、标注和算法的设计往往负载着价值。因此,数据解读中的价值取向和算法设计中的伦理考量,是决定人工智能区分道德上“对”与“错”的关键。
“人们对自动驾驶汽车这类智能机器的担心,主要源于对其算法的不了解。不知道在遇到特殊的情景时,会以怎样的优先次序进行决策。”段伟文认为,可引入医学伦理中的“知情同意原则”,即人们在购买自动驾驶汽车时,就知道它会按怎样的优先次序去做。比如功利论算法的汽车,以伤害最小化为决策原则。相比于撞到五个行人,它会选择伤害车上的一名乘客。而道义论算法的汽车,则以行为的道德正义性作为决策原则。
段伟文进一步指出,人类都没有解决的“电车困境”难题,人工智能自然也很难给出完美答案。但是人工智能有可能基于它的海量数据和迅速反应能力,避免出现类似“电车困境”的情景。
腾讯研究院未来 科技 中心高级研究员曹建峰认为,人们的这些担忧是因为没有和人工智能机器建立信任关系。“人工智能制造企业需要通过多种方式建立用户信任,比如让自动驾驶汽车可以向用户解释其决策。只有当用户知道智能机器为什么这么做、为什么不那么做的时候,人类与智能机器之间的信任才会慢慢建立。”
警惕人工智能算法歧视
算法可以决定自动驾驶汽车在遭遇两难选择时,牺牲哪一方。同样,它还可以决定很多。比如电子科技大学的智慧助困系统,它通过对学生的勤工俭学、食堂消费、校车、浴室等大量数据记录的分析,根据这些外显行为对学生的 经济 状况进行画像,然后决定每月给哪些学生的饭卡自动充值。
智慧助困系统这样充满人文关怀的算法设计,是“高道德水平”人工智能的一个经典例子。然而,随着人工智能的推广普及,各种主观或客观的算法歧视越来越引发人们的关注。
“人工智能决策日益流行,算法歧视是一个不容忽视的问题。”曹建峰举例,在某网络公司的广告服务中,男性比女性看到更多高薪招聘广告;在购物比价服务中,某网络购物平台隐瞒了自己及合作伙伴商品的运费,导致消费者看不到公正的比价结果;某犯罪风险评估算法系统性地歧视黑人。
基于大数据和算法的人工智能,给人类社会生活中的各种事务和决策工作带来了很大便利,也一直被标榜为客观、准确、理性。然而,“算法的设计者们是否可以不偏不倚地将既有法律或道德准则原封不动地编写进程序,是值得怀疑的。规则代码化带来的不透明、不准确,甚至不公平等问题,值得深思和考究。”曹建峰坦言。
段伟文也指出,人工智能算法不可避免地要体现设计者与执行者的利益和价值取向。由于算法的不透明和难以理解,有时候很难看出其中的歧视和不公。因此很多人在毫不知情的情况下,承受着各种微妙的歧视和精准的不公。
曹建峰指出,在涉及信用评估、犯罪风险评估、雇佣评估等项目时,人工智能决策的结果将影响贷款额度、刑罚轻重、雇佣与否。“当越来越多的决策工作从人类向智能机器让渡,如何确保人工智能遵循人类伦理变得愈来愈重要。”
探索人工智能领域立法
“可能对于很多人来说,初识人工智能,是通过《终结者》《少数派报告》《机器管家》这样的科幻电影。在这些电影中,机器人会比人类聪明,而且因具有自我意识而最终变得不为人所控制。”段伟文说,这些影片从不同维度折射了人们对智能化未来的担忧与思考。
在大多数从事人工智能研究的专家看来,拟人化地看待人工智能,甚至担忧其作为一个新物种毁灭人类,有些杞人忧天了。人工智能在单一领域可能比人类强很多,比如下棋、运算,但要让人工智能像人类一样能思考、有意识,短期内不太可能实现。
“现阶段探讨人工智能伦理,主要是指加强人工智能设计伦理,旨在保证优先发展造福人类的人工智能,避免设计和制造出不符合人类价值和利益的人工智能。”上海交通大学科学史博士陈自富说。
陈自富认为,人工智能伦理设计有三个方面需要关注。一是算法设计中的伦理审计,考虑算法中公平、效率之间的关系,避免使其成为“黑箱”。二是人工智能涉及的数据的所有权、隐私权和应用开发权的问题。三是人工智能开发中的伦理或政策限制问题,即哪些可以研发,哪些禁止研发,哪些优先研发等。
“从我国人工智能发展现状来看,前两项都缺乏行业规范和相关标准及法规。”陈自富指出,一些西方国家在数据的所有权、隐私权和应用开发权的主动管理意识起步较早,对于技术开发中与社会各个利益群体之间的沟通,也有稳定的机制和监督方式。在这些方面,我国要奋起直追。
现阶段算法的不透明性是一个普遍的问题。“企业可以对算法主张 商业 机密或私有财产,一般使用者对算法进行审查很困难。”曹建峰指出,在人工智能日益代替人类进行决策的时代,设计出验证、知情同意、透明、可责、救济等方面的机制,对于确保人工智能研发利用与人类社会的价值伦理一致,至关重要。
“人工智能产品研发不仅是技术人员的事,还需要法律、伦理、哲学、社会等学科人员参与其中。IBM、谷歌等都在某种程度上建立了跨学科的人工智能伦理审查委员会,确保人工智能技术的有益性。建议我国针对人工智能研发人员,制定相关伦理准则。同时探索人工智能领域立法。”曹建峰说。
来源:光明日报/ 龚亮 赵雯