刚刚,ACM 宣布三位深度学习之父共同获得 2018 年
今天,ACM(计算机协会)宣布把 2018 年度 ACM A.M. 图灵奖颁给了 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun,以表彰他们提出的概念和工作使得深度学习神经网络有了重大突破,如今神经网络已经成为计算领域的重要组成部分。
2019 年 6 月 15 日,在加利福尼亚州旧金山举行的 ACM 年度颁奖晚宴上,Bengio、Hinton 和 LeCun 将正式收到 2018 年 ACM A.M. 图灵奖。
Hinton、LeCun 和 Bengio 独立工作,共同开发了深度学习神经网络领域的概念基础,通过实验和实际工程证明了深度神经网络的优势。近年来,深度学习方法一直是计算机视觉、语音识别、自然语言处理和机器人技术等领域出现惊人突破的主要原因。
“人工智能现在是所有科学领域发展最快的领域之一,也是社会上最受关注的话题之一,”ACM 总裁 Cherri M. Pancake 说。 “人工智能的进步和兴盛在很大程度上归功于 Bengio、Hinton 和 LeCun 为深度学习最新进展奠定的基础。这些技术被数十亿人使用,任何一个拥有智能手机的人都可以切实体验到自然语言处理和计算机视觉方面的进步。除了我们每天使用的产品之外,深度学习的新进展还在医学领域、天文学、材料科学为科学家提供了强大的新工具。“
“深度神经网络是现代计算机科学一些重大进步的促成因素,帮助计算机视觉、语音识别和自然语言理解方面的长期问题上取得了实质性进展,”谷歌高级研究员 Jeff Dean 说。“这一进步的核心是 30 多年前由今年的图灵奖获奖者 Yoshua Bengio、Geoff Hinton 和 Yann LeCun 开发的基础技术。通过显著提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。”
Yoshua Bengio
Yoshua Bengio是人工智能自然语言处理领域的先锋。他1964年出生于法国,成长于加拿大,现居蒙特利尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教授。Bengio在麦吉尔大学获得计算机科学博士学位。魁北克人工智能研究所 Mila 科学主任,与 Ian Goodfellow、Aaron Courville 两人合著 《深度学习》一书。Bengio 的主要贡献是在 1990 年代发明的Probabilistic models of sequences。他把神经网络和概率模型(例如隐马尔可夫模型)结合在一起,并和 AT&T 公司合作,用新技术识别手写的支票。现代深度学习技术中的语音识别也是这些概念的扩展。此外 Bengio 还于 2000 年还发表了划时代的论文“A Neural Probabilistic Language Model”,使用高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译取得重大突破,并成为了让深度学习处理序列的重要技术。2016年10月,Bengio联合创立了一个位于蒙特利尔的人工智能孵化器Element AI。
Geoffrey Hinton
Geoffrey Hinton被称为“神经网络之父”,目前是谷歌大脑人工智能团队的高级研究员和多伦多大学的名誉教授。他出生于1947年12月6日,是加拿大认知心理学家和计算机科学家,以其在人工神经网络方面的工作而知名。Hinton于1970年毕业于剑桥国王学院,获得实验心理学文学学士学位。他在英国爱丁堡大学获得人工智能博士学位。Hinton 最重要的贡献来自他 1986 年发明反向传播的论文“Learning Internal Representations by Error Propagation”,1983 年发明的玻尔兹曼机(Boltzmann Machines),以及 2012 年对卷积神经网络的改进。Hinton 和他的学生 Alex Krizhevsky 以及 Ilya Sutskever 通过 Rectified Linear Neurons 和 Dropout Regularization 改进了卷积神经网络,并在著名的 ImageNet 评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。
Yann LeCun
Yann LeCun常被认为是“卷积网络之父”,目前担任Facebook首席人工智能科学家和纽约大学教授。Yann LeCun于1960年出生于法国巴黎附近,于1983年获得法国高等电子与电工技术工程师学校的学士学位,以及Pierre et Marie Curie大学的计算机科学博士学位。1987年至1988年,Yann LeCun是多伦多大学Geoffrey Hinton实验室的博士后研究员。
Yann LeCun 的代表贡献之一是卷积神经网络。1980 年代,LeCun 发明了卷积神经网络,现在已经成为了机器学习领域的基础技术之一,也让深度学习效率更高。1980 年代末期,Yan LeCun 在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。今天,卷积神经网络已经成为了业界标准技术,广泛用于计算机视觉、语音识别、语音合成、图片合成,以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等工业应用方向。
LeCun 的第二个重要贡献是改进了反向传播算法。他提出了一个早期的反向传播算法 backprop,并根据变分原理给出了一个简洁的推导。他的工作让反向传播算法更快,比如描述了两个简单的方法可以减少学习时间。LeCun 第三个贡献是拓展了神经网络的应用范围。他把神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作现在已经成为了人工智能的基础概念。例如,在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。他们还提出了可以操作结构数据(例如图数据)的深度学习架构。
三人的回应
2013年,Yann LeCun与Yoshua Bengio共同创办了学习代表国际会议(International Conference on Learning Representations),该会议通过了出版后公开审查程序。
Bengio与LeCun还曾在同一个实验室工作。
对于三个人一起获得图灵奖,LeCun表示,“这是一种莫大的荣誉”,“就像进入计算机科学领域一样美好”,“与好友Yoshua和Geoff一起分享这个奖项让我感觉更加好”。
谷歌人工智能主管杰夫·迪恩称赞了这三人的成就。迪恩表示:深度神经网络是现代计算机科学中一些最伟大进步的原因。”“这一进展的核心是今年图灵奖得主Yoshua Bengio、Geoff Hinton和Yann Lecun开发的基本技术。”
今年的三位获奖者将获得100万美元的奖金。在接受采访时,Geoffrey Hinton表示,他将把属于自己的那一部分奖金捐献给多伦多大学的人文学院,因为“他们资金不足”且“人文学科对未来非常重要”。Bengio说他可能会利用他的奖金来帮助应对气候变化。
关于图灵奖
ACM A.M. 图灵奖,通常被称为“诺贝尔计算机奖”,100 万美元奖金由谷歌公司提供财务支持。它的名称取自世界计算机科学的先驱、英国科学家、曼彻斯特大学教授艾伦·图灵(A.M. Turing),是计算机协会(ACM)于 1966 年设立的奖项,专门奖励对计算机事业作出重要贡献的个人。这个奖设立目的之一是纪念这位现代计算机科学的奠基者。获奖者必须是在计算机领域具有持久而重大的先进性的技术贡献。大多数获奖者是计算机科学家。是计算机界最负盛名的奖项,有“计算机界诺贝尔奖”之称。
图灵奖对获奖者的要求极高,评奖程序也极严,一般每年只奖励一名计算机科学家,只有极少数年度有两名以上在同一方向上做出贡献的科学家同时获奖。
参考链接:
https://www.eurekalert.org/pub_releases/2019-03/afcm-fod032619.php
时间:2019-03-28 10:53 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论: