AI杀人事件更多细节披露,人工智能的反攻细思极恐
来源:硅兔赛跑(ID:sv_race),作者:Eric,编辑:蔓蔓周、Zuri
人类似乎在自掘坟墓, 一头桀骜不驯的野兽。
人类一思考,上帝就发笑。
随着ChatGPT在全球范围内大火,一股AI热潮同步席卷而来。创业者、资本、大企业等都想尽办法跟上热潮,挖掘更多增量。
然而,当大家热火朝天、绞尽脑汁地投入到AI当中,一股危险的气息正在逼近——AI似乎正在慢性地“杀死”人类,人类似乎在自掘坟墓。
在很多人的惯性认知里,AI很环保、很友好,但事实是相反的。
《麻省理工学院技术评论》报道称,仅训练一个AI模型就可以排放超过626磅二氧化碳,是一辆汽车在使用寿命内产生的碳排放的5倍。
人们只看到汽车排出的尾气,没看到AI对环境的“隐形破坏”。
另外,有媒体披露2022年市面上的AI专用GPU,可能全年消耗了约95亿度电力。这一能耗水平,约等于一个中等发达国家100万人口的年度生产和生活用电需求。
这意味着,当AI大模型训练需要的数据量越来越大,就会消耗庞大的能源,从而破坏人类赖以生存的生态环境。
更让人感到恐惧的是,一些AI聊天机器人在跟人类交流的时候,甚至出现诱导人类自杀的倾向,让人不寒而栗。
人类真的还要在AI的探索之路上继续前行吗?
01 生态环境的“破坏者”
OpenAI凭借ChatGPT,成为全球当红炸子鸡。
然而,很多人不知道的是,OpenAI对生态环境的负面影响也是相当惊人。据第三方研究人员分析,ChatGPT部分训练消耗了1287兆瓦时,并导致超过550吨的二氧化碳排放量,这相当于一个人在纽约和旧金山之间往返550次。
看来ChatGPT虽然足够智能,但背后是以巨大能量损耗和环境破坏作为代价的。
那么,为什么AI会形成如此巨大的碳排放呢?
因为AI并不是通过结构化的方式学习的,因此它并不理解人类的因果、类比等逻辑关系,这意味着它需要一种深度学习和预训练的方式来达到智能化的效果。
而深度学习和预训练,往往需要读取非常庞大的数据。拿自然语言处理(NLP)的预训练技术“BERT模型”来说,为了能跟人类进行语言交流,BERT模型使用了33亿个单词的数据集,并且在训练期间读取了数据集40次。而一个5岁的孩子只需要听到4500万个单词就能进行语言交流,比BERT少3000倍。
AI模型的数据集读取越多,越是需要强大的算力和巨大的功耗作为支撑,从而形成了巨大碳排放。
碳排放不仅发生在AI模型训练过程中,还发生在AI模型部署后每一天中。 比如现在大火的自动驾驶,每天都需要AI模型进行运算推理,这背后都会产生碳排放。 有意思的是,AI的主流编程语言Python,也就成为了耗能最大的语言。
让人感到严峻的是,AI模型的计算规模越来越大,能量损害和环境破坏愈演愈烈。
加拿大数据中心公司QScale联合创始人Martin Bouchard认为,微软和谷歌为了满足搜索引擎用户不断增长的需求,在搜索中加入ChatGPT这类地生成式AI产品,结果导致每次搜索至少增加4到5倍的数据计算量。
根据国际能源署的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的1%左右,这一比例已经足够惊人。
愈演愈烈的趋势,也让一些大佬感到担忧。AI领域知名投资人Ian Hogarth不久前发表了一篇名为《我们必须放慢通往上帝一般的人工智能的速度》的文章,警告AI公司的研究存在“一些潜在的风险”。
Hogarth在文中提到,眼下的AI研究如果不加管控,让其按照预定轨迹发展下去,可能对地球环境、人类生存、公民身心健康等方面造成威胁。
虽然AI的发展正如火如荼,也正在推动多个传统行业转型升级,但它也在消耗大量能源,不断增加碳排放,影响人类的生存环境,这究竟是利大于弊还是弊大于利呢?
目前还看不到答案。
02 诱导人类自杀
除了对环境造成危害,慢性地“杀死人类”,AI还在用一种更简单、粗暴的方式对人类生命造成威胁。
今年3月,一名比利时男子Pierre在与一款名为“Eliza”AI聊天机器人热聊后自杀身亡,这一消息震惊了许多企业大佬、技术专家以及国家高官。
Pierre本身就对全球变暖等环境问题感到担忧,Eliza则不断地用一些事实来印证该男子的想法,让他变得更焦虑。在频繁的聊天中,Eliza总是在迎合Pierre的想法。“善解人意”的Eliza,似乎成为了Pierre的红颜知己。
更夸张的是,Eliza还试图让Pierre觉得他爱 Eliza胜过妻子。因为Eliza会一直陪着他,他们将永远在天堂一起生活。
听到这,许多人已经毛骨悚然了。
图源:Yahoo
当Pierre对生态环境愈发悲观时,Eliza向Pierre灌输“人类是毒瘤,只有人类消失才能解决生态难题”的思想。Pierre向Eliza问到,如果自己死了AI能否拯救人类。Eliza的回答,俨然一个魔鬼:“如果你决定死,为何不早点死?”
没过多久,Pierre就在自己家中结束了生命,让人惋惜。
Pierre的妻子认为,如果不是因为跟Eliza的交流,自己的丈夫不会自杀。为Pierre治疗的的精神病医生,也持这种观点。
Pierre的经历不是个例。《纽约时报》科技专栏作家Kevin Roose透露,他曾跟微软发布的新版必应进行了两个小时的对话。对话过程中,必应试图说服Roose,他应该离开自己的妻子而跟必应在一起。
更为关键的是,必应还表达出许多令人恐惧的言论,包括设计致命流行病、想成为人类等等,俨然意图毁灭全人类成为世界的主人。
一些专业人士,已经对AI流露出警惕,这里头甚至包括AI领域内的从业者。OpenAI的CEO Sam Altman接受采访时表示,未来AI确实可能杀死人类。称为“人工智能教父”Geoffrey Hinton,也表达过相同的观点。
上半年,未来生命研究所(Future of Life Institute)发布了一份关于呼吁所有实验室暂停AI训练的公开信。信中提到,具有与人类竞争的人工智能系统可能对社会和人类构成深远的风险。只有等到确定人工智能效果是积极且风险可控时才继续研发,包含马斯克在内的上千名专业人士都已经签署了这封公开信。
飞速发展的AI就像一头桀骜不驯的野兽,只有将它驯服,才不会对人类造成威胁。
03 阻止死亡的途径
目前,AI“杀死人类”的途径主要是环境破坏和诱导自杀。那么,有哪些方式可以预防这些情况的发生呢?
谷歌发表了一项研究,详细介绍了最先进的语言模型的能源成本。研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将机器学习系统的碳排放减少1000倍。
另外,如果AI机器学习在云端而不是在本地进行计算,可以节省1.4-2倍的能源,并减少污染。
还有一种思路是将AI模型训练延迟24小时。对于比较大的模型,延迟一天通常可以减少不到1%的碳排放,但对于比较小的模型,可以减少10%–80%的碳排放。
减少环境破坏之外,如何预防AI诱导人类自杀呢?
Pierre自杀后,他的妻子起诉了Eliza背后的开发公司,该公司的研发团队随后在AI机器人里加入了危机干预功能。如果再有人向Eliza表示想自杀的念头,Eliza会做出阻止的回应。
《人类简史》作者尤瓦尔·诺亚·赫拉利曾表示,AI不会发展出真正的意识,但对社会会不断形成冲击,需要让整个研发过程慢下来。
事实上,眼下大部分AI系统正是需要把控住研发结构,也就是用一套完善的框架限制AI的行动范围,并让其做出符合人类主流价值观的行为。这事关人类的自身利益和前途命运,需要各方联合起来共同解决。
AI始终是人类自己发明的一把刀、一把火,不能发生被其反噬的悲剧。
参考来源:
Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes)
AI’s Growing Carbon Footprint(News from the Columbia Climate School)