深度学习“三巨头”共同斩获2018图灵奖
当地时间3月27日,美国计算机协会(ACM)宣布,把2018年的图灵奖(Turing Award)颁给人工智能科学家Yoshua Bengio,Geoffrey Hinton和Yann LeCun,以表彰他们为当前人工智能的繁荣发展所奠定的基础。
ACM在公告中称,虽然在20世纪80年代,就已经有人开始使用人工神经网络为计算机识别和模拟人类智力。但是,正是三位先驱,在人工智能寒冬下,仍然致力于研究人
今日,AI 早超越了 “炒作” 的阶段,已经向全球及多个行业展现了实际的技术突破及应用能力,毫无疑问,这三位学者厥功至伟。
这三位人工智能界的大神级学者,都是在 80 年代前后投入深度神经网络的研究领域,在当时,这绝对是个冷门的领域。但就同 Geoffrey 在过去接受媒体采访时所提到的,将他引上这条超过 40 年研究之路的不是别的,就是对 “人脑的好奇”。在过去接受彭博(Bloomberg)的一次访问中,Geoffrey Hinton 就曾提到, “如果你真的想了解一个非常复杂的装置,比如大脑,那你就自己造一个”,这样的一个念头,让他就此进入人工神经网络研究的世界。
有同样的想法的不只 Geoffrey Hinton,Yann LeCun 也是如此。Yann LeCun 得知获得殊荣后,Facebook 博客也刊登了他的看法,Yann LeCun 指出,“我们三个人进入这个领域不仅仅是因为我们想要建造智能机器,我们只是想了解“智能”,包括“人类智能”,“我们正在寻找智能和学习的基本原则,并通过构建智能机器来了解我们自己”。
ACM 表示,这三位学者共同开发该领域的概念基础,并验证了令人惊艳的表现,为工程进展带来了贡献,证明了深度神经网络的实际优势。近年来,深度学习方法在计算机视觉、语音识别、自然语言处理和机器人技术带来了惊人突破,其影响也已经蔓延到计算机以外太多其他领域,数学家物理学家化学家生物学家也都开始用深度学习加速科研。
三位获奖者简介
Yoshua Bengio
蒙特利尔大学计算机科学与运筹学系全职教授,也是深度学习“三巨头”中唯一一位仍全身心在学术界工作的大牛。他的诸多科研积累,包括深度学习架构、循环神经网络(RNN)、对抗算法、表征学习,影响和启发了后来的大量研究者,将深度学习应用到自然语言处理、计算机视觉等人工智能的各个主要领域,对近年来深度学习的崛起和发展起到了巨大的推动作用。目前,他是仅存的几个仍然全身心投入在学术界的深度学习教授之一,为人工智能培养了许多杰出的下一代人才。
主要成就
概率模型(Probabilistic models of sequences):在20世纪90年代,Bengio将神经网络与概率模型相结合。相关成果AT&T / NCR用于阅读手写支票的系统所采用,被认为是20世纪90年代神经网络研究的巅峰之作。现代深度学习语音识别系统正在扩展这些概念。
引入高维词矢量和注意力机制(High-dimensional word embeddings and attention:):2000年,Bengio撰写了具有里程碑意义的论文“神经概率语言模型”,引入了高维词矢量。他的见解对自然语言处理产生了巨大而持久的影响,包括语言翻译、问答等。他的团队还引入了一种注意力机制,带来了机器翻译的突破。
生成式对抗网络(Generative adversarial networks):自2010年以来,Bengio关于生成式深度学习的论文,特别是与Ian Goodfellow共同开发的生成性对抗网络(GAN),引发了计算机视觉和图形学的革命。基于这种技术,计算机可以创建图像,也被认为机器开始在一定程度上拥有人类智能标志——创造力。
Geoffrey Hinton
谷歌副总裁兼工程研究员,Vector Institute 的首席科学顾问,多伦多大学的名誉大学教授。他在80年代把以前没有受重视的反向传播(BP)算法引入了神经网络,使得复杂神经网络的训练成为可能,直到今天,反向传播算法依然是训练神经网络最重要的算法。之后,他又在1983 年发明玻尔兹曼机(Boltzmann Machines),以及在 2012 年改进了卷积神经网络的,并在著名的 ImageNet 评测中取得惊人成绩,在计算机视觉领域掀起一场革命。
主要成就
反向传播(Backpropagation):1986 年与 David Rumelhart 和 Ronald Williams 共同撰写的论文—“Learning Internal Representations by Error Propagation”, Geoffrey Hinton 证明反向传播算法允许神经网络发现它们自己的数据内部表征,使得使用神经网络被视为可以解决过去被认为超出范围的问题。反向传播算法是当今大多数神经网络的标准。
玻尔兹曼机(Boltzmann Machines):1983 年与 Terrence Sejnowski 合作, Geoffrey Hinton 发明了 Boltzmann 机器,这是第一个能够学习不属于输入或输出的神经元内部表征的神经网络。
卷积神经网络的改进:2012 年, Geoffrey Hinton 与他的学生 Alex Krizhevsky 和 Ilya Sutskever 使用整流线性神经元(rectified linear neurons)和丢弃正则化(dropout regularization)改进卷积神经网络。在著名的 ImageNet 竞赛中,他和学生几乎将对象识别的错误率减少一半,并重塑计算机视觉领域。
Yann LeCun
Facebook人工智能研究院负责人,纽约大学数据科学中心的创始人之一。他最广为人知的工作是CNN(卷积神经网络)。Yann LeCun,将反向传播算法引入了CNN,并且发明了权值共享、池化等技巧,让CNN真正更为可用,现在,CNN已经广泛用于计算机视觉、语音识别、语音合成、图片合成以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等行业应用方向。他还在 1998 年开发了 LeNet5——首个被大规模商用的 CNN,并制作了被Hinton称为“机器学习界的果蝇”的经典数据集 MNIST 。更难能可贵的是,他坚持了约20年,才迎来了 CNN 如今的繁荣。
主要成就
卷积神经网络(CNN):20世纪80年代,LeCun开发了卷积神经网络,该神经网络模型已经是图像识别、机器视觉领域的基本框架模型之一。在20世纪80年代后期,他在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。现在,卷积神经网络已经成为了业界标准技术,广泛用于计算机视觉、语音识别、语音合成、图片合成以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等行业应用方向。
改进反向传播算法:LeCun提出了反向传播算法的早期版本(backprop),并根据变分原理对其进行了简洁的推导。
拓展神经网络应用范围:LeCun把神经网络变成了可实现大量不同任务的计算模型,其早期的许多工作,现在已成为AI基础概念。例如,在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。
80 年代,人工神经网络被引入作为帮助计算机识别模式和模拟人类智能的工具,到 21 世纪初,专研此法的这三位学者仍是小众,虽然他们重新点燃 AI 社区对神经网络的兴趣,尽管一开始遭到怀疑,但随着算力的突破,他们的想法终于迎来技术大跃进,从学术界异类甚至是边缘成为主流范式。三位获得此殊荣的学者将在 6 月 15 日于 ACM 年度颁奖宴会上正式获得 2018 年图灵奖。“
AI 是当今科学界发展最快的领域之一,也是社会上最受关注的话题,”ACM 总裁 Cherri M. Pancake 说,“人工智能的成长及其带来的优点,很大程度上归功于深度学习的最新进展,而这些就是奠基于 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 的研究,数十亿人使用这些技术,智能手机的用户可以体验自然语言处理和计算机视觉领域的进步,这在过去 10 年是不可能实现的,除了我们每天使用的产品之外,深度学习的新进展也为科学家提供了强大的新工具,从医学、天文学到材料科学等。
对于三位大牛获奖,AI 行业或科研圈的多数人都表示祝贺, “实至名归”、”众望所归”更是许多人乍听这个消息的第一反应。
Google 高级研究员兼 Google 高级研究员 Jeff Dean 也表示,“深度神经网络为现代计算机科学带来了大跃进,也帮助计算机视觉、语音识别和自然语言理解这些长期问题,取得实质进展,” Jeff Dean 说。“这些进步的核心是 30 多年前 Yoshua Bengio、Geoffrey Hinton 和Yann LeCun 开启的基本技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。“
这一次 ACM 选择深度学习理论,在深度学习领域又选择了这三位先驱,其实有更深层的意义。因为,在深度学习和神经网络领域具有突出贡献的绝不止这三位学者,而他们并称为三巨头的原因,也并不只是因为他们投入研究的时间长达40年,更是因为他们始终保有对神经网络的兴趣,在他们的名字广为世人所知的几十年时间里,他们甘于用掉人生大部份的时间坐冷板凳做研究,才推动了神经网络走向复兴。
关于图灵奖
图片来源搜狗百科
图灵奖,全称“A.M. 图灵奖(A.M Turing Award)” ,奖项名字设以纪念世界计算机科学先驱艾伦·图灵(A.M. Turing),通常被称为“诺贝尔计算机奖”,由谷歌提供财务支持,奖金为100万美元。于1966年由美国计算机协会(ACM)设立,专门奖励那些对计算机事业作出重要贡献的个人 。
由于图灵奖对获奖条件要求极高,评奖程序又是极严,一般每年只奖励一名计算机科学家,只有极少数年度有两名合作者或在同一方向作出贡献的科学家共享此奖。因此它是计算机界最负盛名、最崇高的一个奖项,有“计算机界的诺贝尔奖”之称 。
从1966年至今共70名得主,按国籍分,美国学者最多,欧洲学者偶见之,华人学者目仅有2000年图灵奖得主姚期智(现在清华大学、香港中文大学)。
70名得主分布在几十个小领域,排在前六的领域有:编译原理、程序设计语言,计算复杂性理论,人工智能,密码学,以及数据库。在某种意义上,可大致认为,前三个领域与计算机科学本身更密切一些,后三个领域与军民应用更密切一些。
图灵奖历届得主
(数据观综合整理自大数据文摘、DeepTech深科技 转载请注明来源)
责任编辑:李兰松