人工智能六大原则发布:腾讯研究院院长司晓表示AI要规则先行
4月13日, 中国科学院科技战略咨询研究院 与 腾讯研究院 在北京联合举办了“2017 人工智能 :技术、伦理与法律研讨会”,会议邀请了中国科学院科技战略咨询研究院院长潘教峰、中国科学院学部科学规范与伦理研究中心主任李真真、腾讯研究院院长司晓、复旦大学计算机学院肖仰华等数十位人工智能领域专家和学者,共同探讨当前人工智能技术发展中面临的和带来的伦理、法律、社会经济影响等问题,亿欧应邀参加。
眼下,人工智能正在改变各个行业,为了使AI朝着有益和普惠的方向发展,需要进行前瞻性的法律、伦理、安全等AI社会影响研究,也需要AI伦理等人文研究来为技术把脉,会议正式发布了 人工智能六大原则 (详见文末)。
以下为演讲嘉宾观点,亿欧网现场整理:
腾讯研究院院长司晓:AI要规则先行
人工智能技术好比工业革命,但是AI和电力、蒸汽机不一样,它不仅提升了生产效率,还将代替人做决策。无论是图像识别还是强人工智能,都会面临一个问题: 机器的决策是否与人一样,这其实就是伦理的问题。
例如, 无人驾驶 车在紧急情况下,面临选择孕妇还是小孩时,就会很难做出决策。其实不只是机器,不同的人在遇到这种情况下也可能做出不同的决策,这是因为,人类的选择还没有统一的规则,是很随机的应急反应。
设定AI行业的统一规则是很有必要的。如果没有规则,或者某些企业自己设定一个规则,那么产业是无法发展的。在遇到新技术时,以往的方法是技术先发展,等到技术成熟之后再制定规则,但是对于AI,可能要规则先行。
中国科学院学部科学规范与伦理研究中心主任李真真:中国的人工智能道德伦理比国外落后很多
人工智能从一开始就是一个悖论式的存在,既带来好处,又对人类带来威胁,人工智能跨越了我们的想象世界和现实世界,所以出现了阿米西夫的“ 机器人 三定律”。
借用约翰· 奈斯比特的一句话,“每当新技术被引进社会,人类必然会产生一种要加以平衡的反应,也就是说,产生一种情感,否则新技术就会遭到排斥。技术越高级,情感反应也就越强烈。”
人工智能体的道德发展有三个层次:第一层是操作型道德体,即道德表现掌握在设计者和使用者手中;第二层是功能型道德体,即机器人有能力对道德挑战相关事物进行评估和做出反应;同时设计者面临相当限制;第三层是道德主体,即机器变成新种群,享有人类同等的权利、自主性和尊重等等。
人工智能原则制定的出发点,第一要要体现人权,第二要将人类和自然环境利益最大化,第三是削弱人工智能的风险和负面影响。
中国的人工智能技术与世界同步发展,但是AI的道德伦理落后很多,这主要由于我国的社科界和技术界普遍分离。
那么,如何解决这种问题呢?答案是“跨越边界”。
首先要构建对话平台, 将科学技术与社科人文对话;学界、企业界、政界与公众对话;
其次要构建合作平台, 加强技术、伦理和法律间的研究合作,推进我国的人工智能领域健康发展;参与国际伦理规则的制定。
最后,我们倡议建立AITEL联盟和联合实验室 ,推动AI技术与伦理、商业、企业的发展。目前机器的权利还没发展出来,政府、媒体都有监管的义务。
复旦大学计算机学院肖仰华:基于语言认知的语义理解有可能会是区分人和机器交互的安全方式
人工智能的发展是由于三个方面: 大数据 进步、GPU的计算能力增长和大数据时代推动了深度学习的发展。
目前,机器的感知能力超过人类,基于感知能力的验证方式已经失效,比如图片验证,很多企业以为以图片验证码的方式可以防止刷单,其实已经十分不安全。
那么,有什么更安全的方式呢?
基于语言认知的语义理解有可能会是区分是人还是机器交互的安全方式,即通过自然语言理解技术,以问答的呈现形式,机器必须一定程度上“理解文本”才能破解。
当前人工智能还存在两大问题:
第一是理解常识问题, 机器学到的知识是通过文本学习到的,而人的常识在文本里不存在,人从出生开始就通过身体的交互积累常识,目前机器仍然无法像人一样和世界交互,很难获得常识。
第二是机器的推理能力有限,基于真实世界的推理很难 。
奇虎360谭晓生:将来会有大量的人“吃饱了没事干”
人工智能一定会越来越快地普及,因为人类本性的是懒的;另外用机器替代人可以降低成本,未来会越来越多人失业,在深圳的很多汽车工厂,人已经不多了;前段时间去富士康参观,他们很乐于用机器,一年生产20万机械手,因为机器不会闹罢工,也不会“跳楼”。
将来会有大量的人“吃饱了没事”,未来人类主要是创造文化的东西;将来的机器肯定会失控,机器代替人是可能的。
中国发展研究基金会郝景芳:机器不能进化,不能有性繁殖
人工智能在很多方面会比我们聪明,但是在智慧方面,人类有思考决策的能力,而机器没有。《最强大脑》节目里面有很多在某些领域特别突出的人,但是他们并不是这个社会最杰出的人,最杰出的是有思考、决策和综合判断的能力的这部分人。
机器是客观学习,而人是联想学习,人能够发现事物的机构性的关联。人的价值观很大程度是进化出来的,而机器不能进化,不能有性繁殖。
中科院大学公管学院法律与知识产权系刘朝:目前我国还不会做出立法框架协议,但法律要追踪技术发展
在人工智能的制约上,法律是技术、政府、企业、媒体等最后的一个保护伞,法律在人工智能时代变得非常突出。 但是社会的物资条件会制约法律,目前我国还不会做出立法框架协议,但法律可以继续追踪技术的发展。
给人工智能制定法律是很复杂的问题,比如谷歌机器人作画,是否有著作权,知识产权;无人驾驶车如果撞到人,应该是谁来负责呢?是计算机的编程员,计算机厂商,设计人员,制造商,地图公司还是政府。
还有取证壁垒在增加,无人驾驶如果出现问题,倘若没有计算机本科背景很难理解这些技术,那么用户如何举证?
另外,从法律层面看,数据越多其实危害越大,比如AI在医疗领域的应用,人的身体数据“从内到外”都被监控了,可能就没有隐私。
阿里云研究中心田丰:人工智能具有长期积累、短期爆发的特性
机器权利背后其实是人的权利的划分,从法律上来看,人工智能其实是跨学科的东西。
目前AI技术还在快速迭代,如果小数据模型出来之后,不用那么多的数据就可以训练AI,人类会更加恐惧,因为所有东西归零了。
AI其实是商业驱动的。比如美国的facebook、微软、Intel这些大公司为什么做AI,其实都是商业驱动,而且超大规模,超复杂。
人工智能具有长期积累、短期爆发的特性,一定要长远布局,因为某一个技术难点一旦突破,就会呈现爆发式变革,哪怕是1%的技术领先都很可怕。
中科院虚拟经济与数据科学研究中心刘峰:AI还不能看做与人类同权的生命体
电影“世界末日2012”里面,在面临科学家和总统选择谁的时候,必须要有一个判断,但是答案没有规定化。
AI还不能看做与人类同权的生命体,它分担了人类的部分知识和智慧功能,但在最重要的创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确的进化动力,它的进化动力来源于人类,依然是人类的工具。
附《人工智能(AI)发展六大原则》
一、自由原则
1、人工智能研发与应用应符合人的尊严,保障人的权利与自由。
2、人工智能的发展应加强隐私保护,加强个人对数据的控制,防止数据滥用。
二、正义原则
3、确保算法决策的透明性,确保算法设定公平、合理、无歧视。
4、人工智能决策可能影响个人权益,应该提供救济途径。
5、推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。
三、福祉原则
6、人工智能的发展应以促进人类福祉为目的,推动经济社会可持续发展。
7、和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。
8、人工智能的发展应促进数字经济发展,积极应对人工智能带来的就业影响。
9、应不断完善教育体系,培养与人工智能时代相适应的人才。
四、伦理原则
10、将伦理设计嵌入系统,使其成为有道德的机器,保证伦理规范的多样性和包容性。
11、保证人工智能系统遵守人类社会伦理规范。
12、不断检验伦理设计是否与现实人类规范相符合。
五、安全原则
13、人工智能研发、设计及应用应保障人身安全、财产安全及网络信息安全。
14、个人数据的收集与使用应符合规范与法律制度,保障数据安全。
15、针对人工智能的风险,需要有针对性的准备措施及预案。
16、不断加强民众对于人工智能的教育,提高安全等相关意识。
六、责任原则
17、立法与司法应明晰人工智能责任相关立法与规则,不断完善人工智能相关标准,确保人工智能研发及应用的可追责性。
18、积极探索人工智能应用领域的监管机制及监管制度,保障安全,促进发展。
19、加强人工智能研究国际合作,共同探讨并应对人工智能带来的挑战。
本文作者许伟军,亿欧专栏作者;微信:xuweijun24(添加时请注明“姓名-公司-职务”方便备注);转载请注明作者姓名和“来源:亿欧”;文章内容系作者个人观点,不代表亿欧对观点赞同或支持。