脸书 AI 创造人类不理解的语言?这件事完全是子虚乌有
但是,事实真的如此吗?报道称,这完全是子虚乌有。Facebook的一个AI项目的戛然而止并非因为AI不受控进而威胁人类生存,这完全是断章取义。
具体到这件事,Facebook人工智能研究院发表声明,称人工智能并未生成自己的语言,而对于AI项目的关闭,其官方解释是研究人员希望AI与人沟通,而不是相互沟通。
Facebook一直在尝试通过机器人来解决虚拟物品的所有权问题。这是为了理解语言学是如何影响谈判各方讨论方式所进行的尝试,关键是,这些机器人被编程来进行语言试验,以观察它们在讨论中是如何影响它们的优势的。
几天后,一些媒体报道了这样一个事实:在一些案例中,机器人之间的对话,第一眼看上去就会感觉毫无意义:
正如科技新闻网站Gizmodo所说:“在他们试图相互学习的过程中,机器人开始用一种衍生的速记法来交谈——尽管看起来有点可怕,但事实就是如此。”
与电影不同,人类和机器并不是在试图杀死对方。
为了更好地计算一项任务,我们需要重新设计英语,这并不是什么新鲜事。
谷歌报告称,其翻译软件在开发过程中已经做到了这一点。“网络必须对句子的语义进行编码,”谷歌在博客中说。
今年上旬,连线杂志报道了OpenAI的一名研究人员,他正在开发一种系统,在这个系统中,人工智能发明了自己的语言,提高了他们快速处理信息的能力,从而更有效地解决了难题。
但是,Facebook关闭这个项目距离现在已经一个多月了额,最近这件事又火了起来。为什么呢?估计是因为前段时间Facebook首席执行官马克.扎克伯格和科技企业家埃隆·马斯克之间关于人工智能潜在危险的争论。
外界认为,Facebook被迫关闭”失控“的AI项目绝对是搬起石头砸了自己的脚的”打脸“行为,但是,追根溯源,人工智能之间产生的人类不可理解的语言,与其说是人工智能聪明地“创造”出自己的语言,不如说是人工智能“笨到”没有学好英语,出现了语法错误,产生了没有意义的语句,让人类看不懂。
但是,报道的方式更多的是关于文化的恐惧和机器的表现,而不是关于这个特定案例的事实。另外,让我们面对现实吧,大屏幕上机器人只会成为大反派。但在现实世界中,人工智能是目前研究的一个大领域,目前用于设计和测试的系统越来越复杂。
这样做的一个结果是,神经网络是如何产生它们的输出的,这一点一直不太清楚——尤其是当两种神经网络在没有人类干预的情况下相互作用时,就像在Facebook中的实验一样。
大多数聊天机器人的功能都十分有限,因此和机器人聊天十分无聊。但Facebook的系统被用于研究目的,而不是用于面向公众的应用程序,它之所以被关闭,是因为它做了一些团队不感兴趣的事情——不是因为他们认为自己是在对人类的生存威胁的事情。
当然,聊天机器人可以被编程成人类的样子,甚至可能在某些情况下欺骗我们——但我们认为它们策划一场叛乱是不太可能的。至少,Facebook上的那些人肯定不会。