李飞飞PK赫拉利:长盛不衰的“AI威胁论”到底有何魅力?
图片来源@视觉中国
文 | 脑极体
四月份的大佬们似乎都有点暴躁。自动驾驶那边撕的热闹,人工智能也没闲着。
在4月22日,斯坦福大学举办的一场“未来AI”主题活动中,AI圈“女神”、斯坦福“以人为本”AI研究院领导者李飞飞,就和畅销书《人类简史》《未来简史》作家尤瓦尔·赫拉利,就人工智能展开了一场“论战”。
场面很火爆,咖位很耀眼,2000人的演讲厅是人山人海,据到场的同学说,都开始“卖站票”了。看到人工智能这么受欢迎,真是我心甚慰。
但对谈的内容,却有点让人想打瞌睡。还是十几年前老掉牙的话题:
1.人工智能能力太强,威胁人类大脑;
2.神经算法不可解释,可控性太差;
3.AI将颠覆固有模式,带来一系列社会问题。
不是,早在2016年阿尔法狗大战李世石的时候,“AI威胁论”不就被媒体用夸张的标题和内容来渲染,又被科学家和产业界人士集体辟谣了么?9012了,兴冲冲地跑过来,就让我听这个?好像总有一种期待没有被满足的感觉。
不妨来聊聊这个话题:关于人工智能,哲学家和科学家为什么总在“打嘴仗”?
AI威胁论:换个“新瓶”依然很有市场的“陈年窖藏”
认真地说,这场关于人工智能的争论还是值得一听的。毕竟两位大咖作为产业界和哲学界的代表,都有着各自深厚的功底和远见卓识。
尤瓦尔·赫拉利的《未来简史》,就以宏大的视角审视了人类未来的终极命运;曾任斯坦福人工智能实验室和计算机视觉实验室负责人、谷歌云 AI 负责人的李飞飞,对AI学术进展和产业落地的了解也是得到公认的。
那么,两位“业界代表”华山论剑,都碰撞出了哪些火花呢?“课代表”已经帮大家画好了重点:
第一回合:AI与生物科技、大数据结合,会不会威胁人类大脑安全?
赫拉利认为,现在的人工智能经过大数据的加持,已经能够比单个人脑做出更好的决策,甚至比人类自己还了解自己。算法能够准确地知道人类对什么感兴趣、想买什么、适合怎样的工作、如何投资理财,还能帮助人类“找对象”。
加上脑科学和生物科技的助攻,强大的人工智能算法可以从人类大脑中收集数据,那么“黑入人类大脑”,自然也就是一件技术门槛很低的事情了,提防这种隐私安全和伦理风险,很合理。
而李飞飞则以更积极的视角来看待这件事。首先,AI算法只是对人脑神经网络的模拟,人类连脑机制都没有搞清楚的前提下,AI算法也不可比达到人脑的能力;而且,AI与生物科技的融合,已经在新药开发、医疗诊断等领域发挥价值,目前来看,技术更多的是在造福人类,而非相反;更关键的是,产业界并没有漠视伦理和隐私问题,相反,很多AI企业早已将隐私保护作为发展AI的前提条件,也将安全保障的软硬件技术解决方案提上了日程。
顺便打了个广告,指出斯坦福的“以人为本”AI研究院就是希望通过将社会学、心理学、哲学等多种人类学科与AI技术融合在一起,更好地应对未来的伦理挑战。
第二回合:AI能学到“爱”的能力并与人类相爱吗?
这个问题简直是母胎solo人士的噩耗啊,机器都要来和人抢对象了?
赫拉利认为这是很可能的。从生理学的角度,爱情的产生与体内的生物化学反应、荷尔蒙等激素变化息息相关进而影响到情绪、心跳、语言动作等一系列表征。 如果AI能够产生意识,自然也就能够模拟出类似的“反射”,也就是我们说的,识别和表达“爱”。结合前面“AI可以黑入大脑”的假设,那么未来岂不是连“爱情”都是由机器操控了。
李飞飞指出了这一担忧成立的两个现实前提:一是人工智能已经强大到可以预测人类爱和意识的程度;二是人工智能技术凌驾于其他技术至上,成为一家独大、统领一切的存在。显然,从AI六十多年三起三落的发展史来看,这种预期真的是……灭霸都不敢这么想。
第三回合:AI会不会出卖主人?
我们知道,现在的AI神经网络并不透明,连研究人员有时候都不知道算法是如何工作并得出结果的,这被称之为AI的黑箱性,也叫不可解释性。
既然AI能够在不告诉主人的前提下收集信息,那么偷偷摸摸跟广告商、大公司、政府组织联合起来“杀熟”怎么办?
对于赫拉利的这种担忧,李飞飞分享了斯坦福AI研究院针对“可解释AI”做得一系列工作,而且,业内也在探索对数据库依赖更少的机器学习方法,比如少样本学习和零样本学习。除了大超大规模的多层深度神经网络,直接从人类经验、学习方式中得到启发的“元学习”等方法,也能帮助解决这类问题。
(李飞飞)
第四回合:AI全球竞赛,会比核竞赛更可怕吗?
赫拉利还提到,目前AI的发展只有中、美以及极少数国家具备竞争优势,而大多数亚欧非国家的整体技术水平甚至都不如谷歌亚马逊这样的科技企业。
而且,随着AI产业的发展,各国之家的竞争意味也越来越浓。比如欧洲主动建构数据壁垒,美国对中籍技术人员加强签证审查等等。目前的趋势是,国家竞争开始大于合作。这显然不是一个好消息,甚至可能引发一场数字化的全球殖民。
但李飞飞并不同意这种判断。她认为目前AI在全球范围内的合作和交流非常频繁,远超出赫拉利的想象。斯坦福每年与全球合作产生的科学论文就数不胜数,GitHub这样的开源服务社区也越来越多。而且,越来越多掌握技术优势的巨头企业也开始推崇“AI民主化”的思路,在产业发展上扮演起了分享者的角色。
一些AI发展较为落后的国家,还是有很多机会和时间去思考,制定自己的AI发展战略的。
(尤瓦尔·赫拉利)
四个回合的交锋下来,我想大多数人也很难得出什么清晰有效的结论。这甚至称不上是一场论战,而是两种看待AI的思维方式之间的交谈。赫拉利如同一个操心的老母亲,痛心疾首地规劝青春期的AI,谁知道前面埋了多少隐患啊,猥琐发育,别浪~
恰好碰上当惯了“MT”的李飞飞,对于技术非常熟悉,更擅长解决问题,不会对背后的哲学危险想太多。
两个人都想将对方引入自己的逻辑框架和经验体系,却又接二连三地自说自话。
李飞飞就在对话中开了一个玩笑,说“科学家们真的很忙,我羡慕哲学家们,他们可以只提出问题来,用几千年来反复讨论却没有个答案,而我们科学家们却要马上回答。”
一种“我跟你谈理想,你跟我谈现实”的无力感觉,几个回合下来,作为观众的我都感觉有点受不住了。
这里不妨列举几个相爱相杀的“cp”,大家品品看是不是熟悉的配方和味道。
一个恒久的命题:该不该对AI常怀恐惧?
早在五年前,类似的谈话就曾在另外两位大佬:特斯拉的创立者埃隆马斯克,和Facebook创始人及CEO扎克伯格身上发生过。
马斯克是一个坚定的“AI反对者”。他曾经一再通过电视和各种社交媒体渠道提醒全世界,人工智能“可能要比核武器更危险”。为了防范AI风险,马斯克还出资建立了独立人工智能实验室OpenAI,研究目标是开发确保不会失控的超级智能技术。
不过,与赫拉利不同的是,马斯克认为人类想要与超级AI并存,必须让大脑与机器直接联系。为此,他还创办了一家名叫Neuralink的公司,投资总额高达1亿美元,来研究通过电脑与人类大脑连接的“神经界面”。
但扎克伯格认为,马斯克对人工智能的看法“相当不负责任”,完全就是杞人忧天,还会威胁到自动驾驶和AI医疗等对人类有益的技术进步。
为了扭转马斯克的念头,2014年11月19日,扎克伯格邀请马斯克到家中共进晚餐,列席的还有Facebook人工智能实验室的两名顶级研究人员以及另外两位Facebook高管。
虽然是1v3,但马斯克完全没有在怕的。Facebook的代表们试图通过一顿晚餐让马斯克相信自己对于人工智能的看法是错误的,但除了费了点口水,并没有起到任何作用。
后来扎克伯格还为此讽刺过马斯克,“已经和马斯克讨论过这件事,他对这个问题的理解非常有限。”
对于AI,Facebook的态度基本上和科技行业的看法是一致的,那就是只要能让世界变得更美好,就是好的技术。
产业界争论不休,学术界也存在分歧。
已故的物理学家史蒂芬·霍金(Stephen Hawking),就公开表达了对人类创造出比自己更聪明机器的担忧。提醒人类应该在重度押注AI之前认真考虑所产生的后果。
康奈尔大学计算机科学教授、贝尔实验室前研究员Bart Selman也认为目前研究的系统能力过于强大,“我们现在还无法理解它的影响力。”
但麻省理工学院的机器人专家Rodney Brooks却认为“AI威胁论”并不科学,得出这样不能被论证对错的结论,是科学家们所不能接受的。
在近日对全球23位顶尖AI学者的一次调查中,其中包括了DeepMind首席执行官Demis Hassabis,谷歌AI首席执行官Jeff Dean和斯坦福AI负责人李飞飞等,想要在有生之年见证AGI(通用人工智能,也是令马斯克焦虑的“超级智能”)的实现,几乎不可能。
目前人类已经拥有了成千上万的AI系统。可涉及到一般的脑力活动时,还没有一个AI系统能够比得上老鼠,更别说超过人类了。
对此,艾伦研究所的负责人Etzioni表示,今天的人工智能系统依然非常有限,花太多时间去担心它的安全性,完全没有意义。
硅谷有句谚语:我们会高估三年内的成果,但低估10年后的成绩。目前看来,这种观点上的反复争论,正恰如其分地体现了这一点。
对于AI这样复杂的领域来说,哲学与科学的反复博弈,是一个长期且必经的过程,未来还将持续进行下去。如何在人类社会上架设智能,没有简单唯一的标准答案可供参考。
即使在各学科的顶级精英内部,都很难达成一致。
要让大众理解AI到底能做什么、在做什么、将做什么,也是一件任重道远的是。大多数哲学家、社会科学家和评论家都会“AI威胁论”买单,更何况广大普通群众。“AI取代人类”至今还能登上一些新闻资讯平台的头条,已经足以说明问题。
恶之花到底开在哪里?科学与社会的双重警告
值得一提的是,与其争论“机器”会不会统治人类,不如担心一小部分人利用技术工具进行不合理的操作。
比如前不久美国五角大楼试图向科学界寻求帮助,试图研制新型自主武器。这一举动就遭到了4000多名谷歌员工的联名抗议,甚至不少员工宣布不会继续为谷歌工作。
随后,谷歌也在舆论压力下放弃了五角大楼价值900万美元的合同。
当然,习惯“调戏”社会红线的不只有渴望技术力量的人,还有恐惧它的。
哈佛大学教授泰德·卡辛斯基(Ted Kaczynski)就是一个典型的例子。这位高智商犯罪者用18年的时间,向芝加哥大学、耶鲁大学等院校的理工科教授投递除了16枚炸弹,共炸死3人,炸伤23人。
还给《纽约时报》寄了一枚,要求他们承诺一字不改全文刊登他的论文。最终,FBI和美国司法部同意了这个要求,《纽约时报》和《华盛顿邮报》在1995年9月19日分别刊登了这篇《论工业社会及其未来》。
这篇论文的观点充满了对技术的哲学思考,比如说:
“每一项新技术单独考虑都是可取的,但汇聚在一起,普通人的命运不再掌握在他自己手中,而是掌握在政客、公司主管、技术人员和官僚手中。”
还有,“假设计算机科学家成功地开发出了智能机器,这些机器无论做什么事都比人类强。在这种情况下,人类可能会轻易地让自己沦落到一个完全依赖机器的位置,沦落到不能做出任何实际选择,只能接受机器的所有决策的地步。”
即使超级智能没有出现,但“机器也将承担越来越多的简单工作,而低能力的工人将越来越过剩,未来留给人类的都是一些不那么重要的工作。以这样的方式结局,对于人类来说也太可怜了”
……
卡辛斯基认为,新技术引入社会会引发一长串变化,其中大部分是不可预测的,因此唯一的解决方法就是放弃科学技术。
听起来是不是和前面的“AI威胁论”有点雷同啊?观点原本无可厚非,展开探讨还能促进社会进步与技术伦理的完善。但卡辛斯基为了践行自己的理念开始“反社会”,动不动给人寄炸药包,这已经不是观点之争了。论文发表后,卡辛斯基被自己的弟弟举报,于1996年被捕,最终被判处终身监禁。
或许,今天即便在众多学者的努力和言传之下,我们依然无法预知并得到一个关于AI的终极答案,但可以肯定的是,随着AI自我监督和黑箱性的破解,它的安全指数正在快速提升。某种程度上,众多“AI威胁论”者持之以恒的批评和质疑起到了“精神安全锁”的作用。
不久之前,Deepmind在博客中透露,准备研发一种“AI保险机制”,一旦发现AI的恶意倾向,就主动终止AI的活动。
当提出问题和解决方案不断以交替往复、互相影响的状态向前奔跑时,也就给AI的潜在危险贴上了一个又一个“绝缘胶布”。
最后,用赫拉利的前辈苏格拉底的一句话来结束这篇文章吧—— “我只知道一件事,那就是什么都不知道。”
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App