自学成才的人工智能显示出与大脑工作方式的相似之处 - IT思维
编译 | 白菜叶
十年来,许多最令人印象深刻的人工智能系统都是使用大量标记数据进行教学的。例如,可以将图像标记为「虎斑猫」或「虎猫」,以「训练」人工神经网络以正确区分虎斑和虎。该战略既取得了惊人的成功,又严重不足。
这种「监督」训练需要人工费力地标记数据,而神经网络通常会走捷径,学习将标签与最少、有时甚至是肤浅的信息联系起来。例如,神经网络可能会使用草的存在来识别牛的照片,因为牛通常是在田野中拍摄的。
「我们正在培养一代算法,就像整个学期都没来上课的本科生,然后在期末考试的前一天晚上,他们就死记硬背了。」加州大学伯克利分校的计算机科学家 Alexei Efros 说 , 「他们并没有真正学习材料,但他们在考试中表现出色。」
此外,对于对动物智能和机器智能的交叉感兴趣的研究人员来说,这种「监督学习」可能仅限于它对生物大脑的揭示。动物——包括人类——不使用标记数据集来学习。在大多数情况下,他们自己探索环境,通过这样做,他们对世界有了丰富而深入的了解。
现在,一些计算神经科学家已经开始探索,使用很少或没有人工标记数据进行训练的神经网络。事实证明,这些「自我监督学习」算法在人类语言建模以及最近的图像识别方面取得了巨大成功。
有缺陷的监督
受人工神经网络启发的大脑模型大约在 10 年前出现,大约在同一时间,一个名为 AlexNet 的神经网络彻底改变了对未知图像进行分类的任务。与所有神经网络一样,该网络由多层人工神经元组成,这些计算单元相互连接,强度或「权重」可能不同。如果神经网络未能正确分类图像,学习算法会更新神经元之间连接的权重,以降低在下一轮训练中错误分类的可能性。该算法对所有训练图像重复此过程多次,调整权重,直到网络的错误率低到可以接受的程度。
大约在同一时间,神经科学家开发了灵长类视觉系统的第一个计算模型,使用 AlexNet 等神经网络及其继任者。这种结合看起来很有希望:例如,当猴子和人工神经网络显示相同的图像时,真实神经元和人工神经元的活动显示出一种有趣的对应关系。随后是听觉和气味检测的人工模型。
但随着该领域的发展,研究人员意识到监督训练的局限性。例如,2017 年,当时在德国蒂宾根大学(University of Tübingen)工作的计算机科学家 Leon Gatys 和他的同事拍摄了一张福特 T 型车的照片,然后在照片上覆盖了豹皮图案,生成了一张奇怪但易于识别的图像。领先的人工神经网络将原始图像正确分类为模型 T,但将修改后的图像视为豹。它专注于纹理,不了解汽车(或豹子,就此而言)的形状。
自监督学习策略旨在避免此类问题。在这种方法中,人类不会标记数据。相反,「标签来自数据本身。」瑞士巴塞尔弗里德里希米歇尔生物医学研究所(Friedrich Miescher Institute for Biomedical Research)的计算神经科学家 Friedemann Zenke 说。自监督算法本质上是在数据中创建空白并要求神经网络填补空白。
例如,在所谓的大型语言模型中,训练算法将向神经网络显示一个句子的前几个单词,并要求它预测下一个单词。当使用从互联网收集的大量文本进行训练时,该模型似乎可以学习语言的句法结构,展示出令人印象深刻的语言能力——所有这些都没有外部标签或监督。
计算机视觉方面也正在进行类似的努力。2021 年底,Kaiming He 团队展示了他们的「蒙面自动编码器」,该技术基于 Efros 团队在 2016 年开创的一项技术。自监督学习算法随机屏蔽图像,每张图像的近四分之三都被遮盖了。掩码自动编码器将未掩码部分转换为潜在表示——压缩的数学描述,其中包含有关对象的重要信息。然后解码器将这些表示转换回完整的图像。
自监督学习算法训练编码器-解码器组合将蒙面图像转换为完整版本。真实图像和重建图像之间的任何差异都会反馈到系统中以帮助其学习。对一组训练图像重复此过程,直到系统的错误率适当低。在一个例子中,当一个训练有素的蒙面自动编码器显示一张以前看不见的公共汽车图像,其中几乎 80% 被遮挡时,系统成功地重建了公共汽车的结构。
「这是一个非常非常令人印象深刻的结果。」Efros 说。
在这样的系统中创建的潜在表示似乎包含比以前的策略可能包含的更深的信息。例如,该系统可能会学习汽车的形状——或豹子——而不仅仅是它们的图案。「这确实是自我监督学习的基本理念——你从下往上积累知识。」Efros 说,没有最后一刻的临时抱佛脚来通过考试。
自我监督的大脑
在这样的系统中,一些神经科学家看到了我们学习方式的回声。「我认为毫无疑问,90% 的大脑所做的事情都是自我监督学习。」麦吉尔大学和魁北克人工智能研究所 Mila 的计算神经科学家 Blake Richards 说。人们认为,生物大脑会不断地预测物体移动时的未来位置,或者句子中的下一个单词,就像自我监督学习算法试图预测图像或文本片段中的间隙一样。大脑也会自己从错误中学习——我们大脑的反馈中只有一小部分来自外部来源,基本上是「错误的答案」。
例如,考虑人类和其他灵长类动物的视觉系统。这些是所有动物感觉系统中研究得最好的,但神经科学家一直在努力解释为什么它们包含两条独立的通路:腹侧视觉流,负责识别物体和面部,以及背侧视觉流,处理运动(「what」和「where」路径)。
Richards 团队创建了一个自我监督模型来暗示答案。他们训练了一个结合了两种不同神经网络的人工智能:第一个称为 ResNet 架构,专为处理图像而设计;第二个,称为循环网络,可以跟踪一系列先前的输入,以预测下一个预期的输入。为了训练组合 AI,团队从视频中的 10 帧序列开始,然后让 ResNet 一个一个地处理它们。然后循环网络预测第 11 帧的潜在表示,而不是简单地匹配前 10 帧。自监督学习算法将预测与实际值进行比较,并指示神经网络更新其权重以使预测更好。
Richards 团队发现,使用单个 ResNet 训练的 AI 擅长物体识别,但不擅长对运动进行分类。但是,当他们将单个 ResNet 分成两部分(不改变神经元总数),创建两条路径时,人工智能开发了一个表示对象,另一个表示运动,从而能够对这些属性进行下游分类——就像我们的大脑可能做的那样。为了进一步测试人工智能,该团队向它展示了一组视频,西雅图艾伦脑科学研究所的研究人员此前曾向老鼠展示过这些视频。像灵长类动物一样,老鼠的大脑区域专门用于静态图像和运动。当动物观看视频时,艾伦研究人员记录了小鼠视觉皮层的神经活动。
在这里,Richards 团队也发现了人工智能和活体大脑对视频的反应方式的相似之处。在训练期间,人工神经网络中的一条通路变得更类似于小鼠大脑的腹侧、物体检测区域,而另一条通路变得类似于以运动为中心的背侧区域。
Richards 表示,结果表明我们的视觉系统有两条专门的途径,因为它们有助于预测视觉的未来;单一途径是不够的。
人类听觉系统的模型讲述了一个类似的故事。6 月,由 Meta AI 的研究科学家 Jean-Rémi King 领导的一个团队训练了一个名为 Wav2Vec 2.0 的 AI,它使用神经网络将音频转换为潜在表示。研究人员掩盖了其中一些表示,然后将其输入另一个称为 transformer 的组件神经网络。在训练期间,transformer 会预测掩码信息。在这个过程中,整个 AI 学习将声音转化为潜在的表示——同样,不需要标签。该团队使用了大约 600 小时的语音数据来训练网络,「这大约是一个孩子在前两年的经验中所能得到的。」King 说。
一旦系统接受了训练,研究人员就会播放英语、法语和普通话的有声读物部分。然后,研究人员将 AI 的性能与 412 人的数据进行了比较——这些人混合了三种语言的母语人士,他们在 fMRI 扫描仪中对大脑进行成像时听过相同的音频片段。
King 说,尽管 fMRI 图像嘈杂且分辨率低,但他的神经网络和人类大脑「不仅相互关联,而且以系统的方式关联」:人工智能早期层的活动与初级听觉皮层的活动一致,而人工智能最深层的活动与大脑中较高层的活动一致,在这种情况下是前额叶皮层。
「这是非常漂亮的数据。」Richards 说,「这不是决定性的,但(它)是另一个令人信服的证据表明,事实上,我们学习语言的方式在很大程度上是通过试图预测接下来会说的话。」
未治愈的病理学
不是每个人都相信。麻省理工学院的计算神经科学家 Josh McDermott 致力于使用监督学习和自我监督学习来建立视觉和听觉感知模型。他的实验室设计了他所谓的「metamers」,即合成的音频和视觉信号,对人类来说,它们只是难以理解的噪音。然而,对于人工神经网络来说,同色异谱似乎与真实信号无法区分。这表明在神经网络的更深层中形成的表征,即使是自我监督学习,也与我们大脑中的表征不匹配。
这些自我监督学习方法「在某种意义上是进步的,因为您能够学习可以支持许多识别行为而不需要所有这些标签的表示。」 McDermott 说,「但他们仍然有很多监督模型的病态。」
算法本身也需要更多的工作。例如,在 Meta AI 的 Wav2Vec 2.0 中,AI 只预测几十毫秒的声音的潜在表示——比发出感知上不同的噪音所需的时间更少,更不用说一个词了。「有很多事情要做才能做一些类似于大脑所做的事情。」King 说。
真正了解大脑功能需要的不仅仅是自我监督学习。一方面,大脑充满了反馈连接,而目前的模型几乎没有这样的连接,如果有的话。一个明显的下一步是使用自我监督学习来训练高度重复的网络——这是一个困难的过程——并看看这些网络中的活动与真实的大脑活动相比如何。
另一个关键步骤是将自我监督学习模型中人工神经元的活动与单个生物神经元的活动相匹配。「希望将来,[我们的]结果也将通过单细胞记录得到证实。」King 说。
如果观察到的大脑和自我监督学习模型之间的相似性适用于其他感官任务,那么这将更强有力地表明,无论我们的大脑能够发挥什么魔力,都需要某种形式的自我监督学习。
「如果我们确实发现了截然不同的系统之间的系统相似性,它[将]表明也许没有那么多方法可以以智能方式处理信息。」King 说,「至少,这是我们希望与之合作的美好假设。」
相关报道:https://www.quantamagazine.org/self-taught-ai-shows-similarities-to-how-the-brain-works-20220811/