李开复总结:2018达沃斯聚焦AI对人类的六大挑战
2018冬季世界经济论坛依然在瑞士 达沃斯 进行。微博上和朋友圈里勤奋的“特派记者” 李开复 ,再次给我们分享了闭门论坛热议的话题。
这次是AI+教育。
请看创新工场董事长发自达沃斯的见闻:
今天在参加达沃斯经济论坛的WEF Generation AI panel环节,我和Kay Firth-Butterfield(AI-Austin公司执行董事)、Ronald Dahl (加州大学伯克利分校人类发展研究所所长)、Erica Kochi (联合国儿童基金会联合创始人)、Matt Hancock(英国数字文化媒体和体育部长)等嘉宾讨论,关于AI教育和AI道德公平偏见有几个有意思的观点跟大家分享。
我的观点是中国在AI和教育的结合方面,更勇敢超前,美国的EdTech太理想主义。
中国教育和AI技术结合更超前
这个月我和一些创业公司拜访哥伦比亚大学,接待我们每一个老师,无论是Jeanette Wing, Mary Boyce还是Merit Janow,是从心里热爱他们做的每一个技术,即使已经是60多岁,依然对技术痴迷。这种教育精神,是非常棒的学习榜样。
但针对AI+教育的未来,我的观点是美国的EdTech(教育科技)太多理想,太多修辞,不够务实。同时对学生数据隐私过于纠结,没有看到应有的进度。中国在AI技术和教育的结合方面,走的更超前。
我跟大家描述中国AI教育的迅速发展。每个学生都有完整教育画像,画像数据来自:远程教育视频和学习记录(如 VipKid),双师教师视频和学习记录(如高思),考试自动修正和错误记录(如七天),自动软件练习(如盒子鱼)。这几个公司覆盖了接近百万付费家长,数千万学生。
在这几个领域创新工场投资的几家教育公司,已经验证这些逻辑,正在改写未来教育。比如VipKid可以透过一对一视频学习链接北美老师和中国孩子,强大的后台系统可以将整个教学过程数字化,反馈给老师,不断优化教学效果。创业公司“联帮在线”推动双师课堂,把优质师资通过网络带进偏远学校,当地老师做个性化课后辅导。创业公司“七天网络”提供AI智能阅卷,减轻老师重复性工作。
老师不会被AI取代
在未来的10-30年里,这些工作将会慢慢消失,这种局面我们很难去改变。很多人都在担心自己的工作会被AI取代,具备以下四种特质的工作很难被AI取代:精致、复杂、创意、爱心。
所以,学校老师的角色未来不可能被AI取代,AI反而能减轻教师工作中重复机械化的任务(比如阅卷、点名),让老师们真正释放出来关注学生、教学互动。
但我们需要改变教育,为孩子们开设发掘天赋和才能的课程,让更多的孩子接受更好的教育,还需要增强职业道德培训。
未来,人类也许一周工作30个小时(4天)就可以了,将来会有更多的 机器人 替我们工作,我们也有更多的财富,这也会削弱我们的工作动机。但我们需要匹配的教育方式培养对应的人才。
AI的道德偏差AI公司应负责
AI的智能水平依赖数据。一旦数据样本不全面,就会造成结果和判断的偏差。一些研究已经显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中的根深蒂固的偏见。通俗地说,因为人类的语言带有偏见,计算机通过对人类语言的大量学习,也学会了偏见。例如,当一台计算机在搜寻计算机程序员时,会将“程序员”与男性联系在一起,男性的简历将会到达最顶部。
对于AI 道德公平偏见问题,UNICEF 创新负责人Erica Kochi 发表了比较有意思的观点。
1)如果AI数据不完整,可能导致各种问题。比如说在非洲用手机通话数据训练的小额贷款就无法贷款给比较贫穷没有手机货很少使用手机的人,还有墨西哥有些保险公司会预测人未来生病的概率,如果很高就大幅度涨保险月费,
2)AI公司在解决道德上有四个责任:数据的完整性和代表性、算法的公平性、用户对于算法和决策的知情权,用户投诉渠道。
3)如何执行这样对于大AI公司的监督呢,Erica建议采取财务审计的模式,来检视算法、数据、透明度、政策等方面。可以从最危险的领域(比如说 无人驾驶 )开始,逐渐完善审计制度。审计可以来自内部或外部。公司因为自律审计,对公司声誉会有所提升。如果是外部审计,则可以给公司机会回应整改。这些观点在国内从来不会听到,虽然不一定是最好的方案,
这些观点虽然不一定是最好的方案,我也不见得同意她的观点,但是他们研究更深,且基于不同文化背景,可彼此参考切磋。
李开复总结:2018达沃斯聚焦AI对人类的六大挑战
2018年冬季达沃斯的主题是“在分化的世界中加强合作”, 人工智能 出现在全球各界领袖的讨论议题当中。从我的感受来看,全球的各界领袖对AI对人类的挑战尤为关注,主要聚焦在以下六个话题里:
1) 安全性: 无人驾驶汽车可以被黑客变成武器,如何避免?
2)隐私: 个人隐私如何保护,如何让每个人掌控自己的数据,或至少避免AI公司滥用个人数据(如出售等)?
3)工作: 15年内50%的工作任务将被取代,4-8亿人需要重新训练,人类如何度过这个历史性的挑战?
4)贫富不均: AI创造的富豪和被AI取代的重复性工作者,这两者的差距可能是有史以来最大。如何避免富人凌虐穷人?
5)数据的偏见: 如果数据不完整或标注有偏见,可能带来对一些用户的歧视,如何监督避免这方面问题?
6)大公司的垄断: 巨头公司拥有大量用户数据,可以靠此优化产品,增加收入,花大钱雇佣AI科学家买机器,再累积更多数据,源源不断维护垄断。AI时代的垄断,因为有数据累积作用,可能比任何过去时候的垄断都反竞争,应该怎么办?