霍金再呛声人工智能,称人类应成立“世界政府”应对机器人起义
物理学家霍金可能是人工智能的一个支持者,但他也坦言,人工智能创造了一些潜在的挑战。在最近的一次采访中,他发出了类似的声音,并提出了保守派可能难以接受的解决方案。
在周一被授予伦敦城市荣誉自由奖后,霍金教授对《泰晤士报》表达了他对未来的乐观态度。但是,他补充道,他担心人工智能及其他全球性的威胁。他的答案则是:采取国际行动,最好是世界政府。
“我们需要更快地识别出这些威胁,然后在它们失去控制前采取行动。” Hawking说道,“这可能就意味着需要某种形式的世界政府。”
但是他警告说,这种做法“可能会导致暴政。”
随着人工智能在社会中的作用的增加,计算机科学家和政策制定者正在从构建这些系统转为利用它们的力量为社会带来利益。尽管观察者在关于人工智能相关挑战的性质和范围有所分歧,但人们普遍认为,这些影响需要解决。世界政府会提供一个解决方案吗?
“是的,我认为改善全球治理不仅可以应对先进的人工智能技术,对人类所面对的未来的一些其他挑战来说都可能是必要的。”牛津大学未来人类学院的创始主任Nick Bostrom教授在给《基督教科学箴言报》的电子邮件中写道,“当我们继续开发越来越强大的工具时,我不知道我们能否在和地球对抗的情况下一直生存下去。”
今天,人工智能似乎无处不在。它是自动驾驶汽车进步的原因,它支撑着Facebook的广告筛选过程,它通过虚拟助手与人们互动,像Apple的Siri和Amazon的Alexa。在纽约,它预测火灾;在英国,正在安排机器学习让人们支付他们的债务。Hawking曾指出,最终它甚至可以消除持久的社会挑战,如疾病和贫困。
但是观察者提出,这些独特的机会将带来独特的问题。一个 问题是,关于当经济过渡到一个由机器主导的世界里将会变成什么样。
“有两个主要的经济风险:首先,工人的技能和未来工作场所所需要的技能之间可能会出现不匹配;其次,人工智能可能会因增加资产拥有者和一些高级技能工人的回报而加剧经济的不平等。”普林斯顿大学计算机科学与公共事务教授,信息技术政策中心创始主任Edward Felten在一封电子邮件中告诉《基督教科学箴言报》。
他认为这些问题可以通过采用分配提高生产力的公共政策来解决。
然而Hawking在他的评论中可能在暗指担心人工智能将变得过于强大,并开始以人类所无法控制的方式行动。但并不是每个人都相信科幻小说中的霸道机器会成为必然:Felten教授说他没有看到“计算机科学中有任何健全的基础能断定机器智能会在任何时候突然加速。”
未来今日研究所的创始人兼首席执行官Amy Webb正在更加认真地看待这些威胁。她向《基督教科学箴言报》解释道,人工智能的目标之一就是教会机器在“无监督学习”系统中自己建立连接。这意味着对这些人工智能系统做出正确决策的能力给予了很大的信任。她举了一个在教室里学习数学的学生的类比:
“如果错误地教学生一加一等于三,并且继续教下一组孩子,那么会发生什么?这个错误的答案会开始传播,而其他的决定都是基于这个知识。”
而这个风险要高于数学课的风险,她补充道:“我们将要求它们做出有关个人身份识别、安全性、武器部署及其他的决策。”
Bostrom教授将当今人工智能所面对的问题定义为“可伸缩的控制”:如何确保任意的人工智能技术与程序员的意图相匹配。”
这些评论员解释说,有一个很小但是正在增长的研究领域正在解决这些问题——并且世界政府或人工智能的法律的国际协调可能是一种方法。虽然Bostrom说他不希望“全球事务中出现任何迫在眉睫的转型”,但世界政府可能只是政治聚合的下一个阶段。
“我们已经走过了大部分路——从采集猎手,酋邦、城邦、到单一民族国家,到现在的国家和国际机构。”他写道,“我们还需要一次飞跃。”
Webb女士虽然赞同国际合作是有价值的,但是她怀疑它是否能及时解决眼前的问题。
“如果世界上所有的国家就人工智能的标准和使用达成一致意见,那会很棒。但目前而言,我们在连像气候变化这样的问题上都不能达成单方面协议。” 她指出。 国际政府合作需要时间来追赶人工智能的发展,她说道。
因为人工智能变得越来越无处不在,政府决策也可能受到人类行为的意外变化的影响。技术政策研究所主席兼高级研究员Scott Wallsten在一封电子邮件中写道。
“基于人工智能的更安全的汽车会让人们更鲁莽地采取行动吗?比如因为他们相信车会自动停下来而去闯红灯。” Wallsten博士问道。
考虑到这一点,他提出, 本地、国家或国际级别的有效的政策解决方案应该从更多地研究人工智能所带来的影响开始。
“任何解决措施都需要基于对问题的透彻理解。”他总结道。
翻译来自:虫洞翻翻 译者ID:盖里君 编辑:郝鹏程