观察 > 行业资讯

众望所归!2018图灵奖授予深度学习三巨头,引领人工智能复兴

2019-04-08 编辑:闫冰 文章出处:零一科技
(0)我要评论
摘要:

深度学习对人工智能的影响无可估量,它使得神经网络获得关键性突破,带动了人工智能的新一轮热潮。

北京时间327日晚,ACM官宣了2018年图灵奖获得者——由深度学习三巨头Yoshua BengioGeoffrey HintonYann LeCun共享该荣誉。这是自1966年图灵奖创立以来,首次出现三人共享奖项的情况。

三人也被业内称为深度学习之父,他们通过独立或协作的方式,为深度学习领域的发展奠定了根基,并在各种实验应用中做出令人惊讶的成果,证明了深度神经网络在计算机科学领域的优势。

(吴恩达与三巨头在NIPS 2014大会上)

消息传来,学术界和科技公司广大研究人员一致称快,普遍认为实至名归

深度学习对人工智能的影响无可估量,它使得神经网络获得关键性突破,带动了人工智能的新一轮热潮。

2016年,阿尔法狗的横空出世,正是谷歌技术团队运用深度学习方法训练而成。

如今,人工智能从业者们广泛采用深度学习在识别和预测上的强大能力,用于各种创新应用中,语音识别、图像识别、自然语言处理、数据挖掘等,到处都是深度学习的身影。

615日,BengioHintonLeCun将在美国旧金山举行的ACM年度颁奖宴会上,正式收到图灵奖。

推动人工智能复兴潮

图灵奖被誉为计算机界的诺贝尔奖,对获奖者有极高的要求,评奖程序又极其严格,一般每年只奖励一名计算机科学家。此次同时颁给三位获奖者,可见三位科学家在深度学习领域中的成就之高。

三巨头拥有强大的科研背景:Bengio是蒙特利尔大学教授,也是魁北克人工智能研究所Mila的科学主任;Hinton是谷歌副总裁兼工程研究员,Vector研究所首席科学顾问,多伦多大学名誉教授;LeCun是纽约大学教授、Facebook副总裁兼首席人工智能科学家。

20世纪80年代,人工神经网络作为一种帮助计算机识别模式和模拟人类智能的工具被引入,但一直没能成为主流方向,期间人工智能也步入低谷。到21世纪初,只有BengioHintonLeCun等人在坚持研究。

神经网络由一层一层的神经元构成,构建的层数越多,越能解决更复杂的问题。人工智能需要突破性技术才能前进,而依靠深度学习,多层神经元构成的神经网络,推动机器学习上了一个新的台阶。

起初,他们的努力也曾遭到怀疑,但最终还是点燃了人工智能行业对神经网络的兴趣——他们的研究成果成为当前深度学习领域的主导范例,同时也带来了新技术的重大进步

人工智能现在是所有科学领域中增长最快的领域之一,也是社会上最受关注的话题之一。人工智能的发展和壮大,很大程度上要归功于BengioHintonLeCun所奠定的深度学习基础,以及在此基础上所取得的最新成就。

ACM主席CherriM.Pancake说,深度学习技术正被数十亿人使用,任何智能手机的用户都能实实在在体验到自然语言处理和计算机视觉方面的进步,而这在10年前是不可能的。除了我们每天使用的产品,深度学习的新进展也为科学家们提供了研究医学、天文学、材料科学的强大新工具。

谷歌高级研究员、谷歌人工智能高级副总裁杰夫·迪恩(Jeff Dean)表示:“深度神经网络对现代计算机科学的一系列重大进步做出了巨大贡献,这一进步的核心是30多年前由三位深度学习大师开发的。通过大幅提高计算机感知世界的能力,深度神经网络不仅改变了计算领域,而且正在改变科学和人类努力的每一个领域。

三巨头成就几何

熟悉人工智能领域的朋友,一定对BengioHintonLeCun三位奠基人不陌生。可以说没有他们,就没有人工智能的今天。

Geoffrey Hinton被称为神经网络之父深度学习鼻祖

1983年,他发明了玻尔兹曼机,奠定了深度学习的基础。

1986年,HintonDavidRumelhartRonald Williams联合发表了具有里程碑意义的论文——“通过误差反向传播学习表征,证明了利用反向传播算法,可以在神经网络隐藏层中学习到对输入数据的有效表达。

反向传播算法已成为当今大多数神经网络的标准,广泛用于人工神经网络的训练。

Hinton先在卡内基梅隆大学,后到加拿大多伦多大学任教,2006年和学生发表的两篇文章开辟了深度学习的新领域,提出了降维和逐层预训练的方法,得以对新增神经元进行有效训练,发现大数据中的复杂结构,使得深度神经网络的实用化成为可能,大幅提升了神经网络的实际效果。

2012年的图像识别国际大赛ILSVVRCImage Net挑战赛)是人工智能领域标志性事件,Hinton团队利用多层神经网络,以绝对优势,大幅超越了使用传统机器学习算法的对手。

(图片来源:网络)

比赛结果在人工智能学界引起轰动,从此,以多层神经网络为基础的深度学习得到广泛应用,迅速在图像识别、语音识别等领域取得成功。

在语音识别方面,2009年微软研究院就开始和Hinton合作,并取得一系列突破,同时在Skype上整合实时语言翻译功能,语音识别得到解决。

2013年他加入谷歌,将神经网络带入到研究与应用的热潮,将深度学习从边缘课题变成了谷歌等互联网巨头仰赖的核心技术。

Yoshua Bengio是自然语言处理的重要奠基人。

2000年,Bengio发表了开创先河的论文神经概率语言模型,使用高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译取得重大突破,成为深度学习序列处理的关键组成部分。

20世纪90年代,Bengio研究出了序列的概率模型,把神经网络和概率模型(例如隐马尔可夫模型)结合在一起,并和 AT&T 公司合作,用新技术识别手写的支票——这一成果被认为是20世纪90年代神经网络研究的巅峰,当前的深度学习语音识别系统也正是这一概念的拓展。

Bengio的研究成果对自然语言处理产生了巨大而持久的影响,对语言翻译、语音交互和视觉交互具有重大意义。

2010年以来,Bengio关于发表了一系列关于深度学习的论文,其中,与Ian Goodfellow共同开发的生成对抗网络(GANs),在计算机视觉和计算机图形学领域引发了一场革命。


Yann LeCun是卷积神经网络的开发者——该技术深度学习领域的基本原理之一,被广泛应用于自动驾驶、医学图像分析、声控助手和信息过滤等场景中。

此外,他提出了早期版本的反向传播算法,并基于变分原理对其进行了清晰的推导,使反向传播算法速度更快。

同时,LeCun还拓宽了神经网络的应用,将其作为一种计算模型用于广泛的任务处理场景中。

他在早期的工作中引入了一些现有的人工智能中基本概念,例如,在图像识别领域中,他研究了如何在神经网络中学习分层特征表示——这一概念现在经常用于许多识别任务。

此外,他还提出了能够操作结构化数据的深度学习体系结构。

- End -


参与讨论0条评论

请【登录】后讨论

您可能感兴趣的

  • 华为的“鸿蒙”,正是打破规则,横空出世的悟空

  • 亚马逊中国裁员退场,20年间海外科技巨头相继“惨死”,出路竟在这里?

  • F8大会全程回顾 12项重大更新

猜你喜欢

最新文章

热门阅读

媒体

CASUAL可追