马斯克的“AI反人论”有据可依!Facebook团队发现:AI极易受骗
众所周知,人工智能可以精准的识别图像或人类语音,但是其算法的运作跟人类的大脑运作方式相去甚远——这就意味着相同的伎俩骗不过人类却可以轻易蒙骗计算机。
以色列巴伊兰大学和Facebook的AI团队的研究员最近发现,将一段音频微微调整之后,人类依然可以一如往常地理解其内容,但是语音识别AI听到的却是完全不一样的内容。这种狡猾的调整方式就是给音频加上一层安静的噪音层,其包含的特殊模式会让神经网络将其与其他词语联系在一起。
该团队将这一新算法——Houdini——应用到一系列音频上,然后让Google Voice进行识别。以下为其中一个示例:
当这段原声音频经Google Voice识别转化成文字后是这样的:
但是当该音频经过处理后,虽然人类听到的和原声音频几乎无差别,但机器读出来的却成了这般模样:
该团队的杰作也可以运用到其他的机器学习算法上。稍稍改动人类图像,就可以让用于识别人类姿势的算法误读为另一种姿态。给路况图像添加噪声后,该团队可以让在自动驾驶汽车上用于识别道路和标志的AI算法以为图片中看到的是——杂役。上述这些基于图像的研究加过与去年OpenAI和GOogle Brain研究人员发布的结果相似。
人们或许认为这些所谓的对抗例子是一个奇怪的研究领域,但是这些对抗算法可用于机器学习算法的应力测试。当然更令人不安的是,这些算法也可用于邪恶的一面,比如让AI“听见”或“看见”事实上并不存在的东西——从而让自动驾驶汽车看见假的路况,或者让智能扬声器听见假的指令。当然,在现实中实施这些恶意攻击和实验室里的实验还是存在较大的区别,尤其是因为输入该类欺骗性数据并不容易。
但是所有这些研究最关键的地方,大概在于,保护AI免受这类伎俩的攻击在实际操作中亦是非常困难。正如我们先前解释过的,我们还没有真正理解深度神经网络的内部运作方式,这也意味着我们事实上并不了解为什么这些AI算法会特别关注音频或图像中的细微特点。在我们没有彻底搞清楚这些问题前,对抗性例子将会一直存在;当然,AI算法的对抗性测试也会一直存在。
说到底,人类的恐惧不正是来源于未知吗?