赫芬顿邮报:美国政府低估了马斯克的警告,巨头垄断AI不容忽视
1 新智元编译
来源: huffingtonpost.
作者:Dennis Curry
译者:小芹
【新智元导读】 马斯克早在2014年的一次演讲中就提出,人工智能的发展可能会是人类未来面临的最大威胁,他认为, 不合理的AI的出现 ,那就好比“召唤出来恶魔”。为此,马斯克也做了一些应对――他建立了Open AI,希望实现AI技术的民主化。近日,美国政府连发两份纲领性文件,为美国AI发展划定路线图。赫芬顿邮报的记者 Dennis 认为,美国政府的人工智能规划没有解决巨头垄断的问题,这为未来埋下了风险。
马斯克曾指出:“要防止人工智能被错误使用,最好的办法就是用它武装更多的人,让越来越多的人拥有人工智能。如果人人都掌握了人工智能,就不会有任何个人或者少数派独霸人工智能的强大威力。 ”
65年前,艾伦·图灵提出了一个著名的问题:机器能思考吗?图灵在他的文章《计算机器与智能》(Computing Machinery and Intelligence)中探讨了人工智能(AI)这个概念,提出机器智能可能达到或超过人类智能的界限。从图灵的文章到过去几年里人工智能的快速发展,技术行业的领导者、公共知识分子以及数学家和哲学家们都开始对AI的进步响起警报,警告将这种超级智能“联网”可能带来潜在的、未预见的可怕结果。
特斯拉汽车公司及SpaceX的首席执行官伊隆·马斯克(Elon Musk)在2014年的一次演讲震惊了许多人,他说,世界上对人类存亡的最大威胁可能不是核战争或气候变化,而是一个不合理的AI的出现 ,那就好比“召唤出来恶魔”。在随后的采访中,马斯克仔细阐述了他的观点,再次对AI发展前沿的一些愚蠢行为提出警告。这里关注的不是超人类智能本身的出现,因为这种发展对人类来说可能有巨大的好处――而是在这个游戏中随之而来的错误,即允许能够自我完善的机器智能“完全自由”。
为了减少危险性AI能量集中的可能性,马斯克实际上已经将大量资源转为OpenAI的形式。OpenAI是一个非盈利组织,责任是将AI技术的重要进步公开化,让全球各地广泛可得。马斯克的警告得到了作家Sam Harris、哲学家Nick Bostrom等人的支持。
本月初,美国国家科学技术委员会发布了题为《为未来人工智能做好准备》的报告。尽管奥巴马政府认可开始认真思考AI及其对人类未来的影响的重要性,但报告似乎有意低估了马斯克等人的警告,认为这些不值得现在就担心。在讨论可能有害的AI的风险时,报告指出:“不管这些担心是否合理,联邦政府应该在中短期采取的政策几乎不会有什么不同。”报告进一步断言,最好的方向是关注那些AI发展中的“不那么极端”的近期风险,例如安全和隐私问题。在这里,政府的立场问题不在于它的逻辑,而在于它的假设,即它假设AI的长期风险真的很“长期”,似乎那些行业专家提出的警告比科幻小说还要超前。
虽然报告涵盖了道德考虑以及由调查发现和AI开发人员提出的担忧,但它的阐述相当怪诞,报告中说:“虽然以后可能会对有害的超级智能的可能性提出审慎的关注,但这些担心不应该成为AI公共政策的主要驱动力。”承认“有害的超级智能”某天会成为现实的可能性,报告这里的措辞让人困惑。
这份报告在所有方面都可以说朝着正确的方向迈出了一步。此外,白宫还发布了关于AI研究战略的伴随报告,题为《国家人工智能研究与发展战略规划》。报告中,“实现长期AI安全和价值一致性”标题下的小节讨论了旨在监测AI系统采用的递归学习策略的研究系统检查的重要性,确保人类自己的目的与普遍AI的目的的一致性。
尽管有这些积极的讨论,然而,报告中似乎存在一种不愿意认真解决的担忧, 即AI的实质性进步正限制于一小群开发商,并被置于保密状态。 此外,也并没有一项旨在调查并揭示AI的“长期”风险的研究和管理计划,怎样提前发现这些风险,怎样阻止它们,这些还并未达成。尽管最近包括马斯克和著名科学家史蒂芬·霍金的一封公开信都提到这种迫切性。
马斯克在最近的一次采访中说,美国政府,甚至整个世界,可能正在玩火,不知道AI的哪些技术正在呈指数级地进步。图灵在他那篇有关机器智能的文章中总结道:“我们只看得到前面的一小段距离,但我们应该要看到前面有许许多多需要做的事情。”让我们希望政府目前在支持AI这个话题上的短视不会成为未来几年、几十年里我们会后悔的事情。如果未来的监管系统失败了,让我们进一步希望AI发展前沿中的人能提前认识到“恶魔”。