速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

对话 Facebook 人工智能实验室主任、深度学习专家 Yann LeCun

  • 2014-04-30
  • 本文字数:5142 字

    阅读完需:约 17 分钟

Yann LeCun (燕乐存),Facebook 人工智能实验室主任,NYU 数据科学中心创始人,计算机科学、神经科学、电子电气科学教授。他 1983 年在 ESIEE 获得电气工程学位,1987 年在 UPMC 获得计算机博士学位。在多伦多大学做了一段时间博士后,于 1988 年加入位于新泽西州的 AT&T 贝尔实验室。1996 年他成为图像处理研究部的主任,2003 年,在普林斯顿 NEC 研究院经历短暂的 Fellow 生活以后,加入 NYU。2013 年,他被 Facebook 聘请为人工智能实验室主任,同时仍在 NYU 兼职。

他目前的研究兴趣在于:机器学习,计算机认知,移动机器人以及计算神经学。在这些领域他发表了 180 余篇论文和图书,涉及主题有神经网络、手写体识别、图像处理和压缩以及计算机认知的专用电路和架构。他在贝尔实验室研发的字符识别技术,被全世界多家银行用于识别支票,早在 2000 年左右,该程序识别了全美 10%-20% 的支票。他发明的图片压缩技术 DjVu,被数百家网站和出版商采纳,拥有上百万用户。他研发的一个识别方法,卷积网络,是 AT&T、Google、微软、NEC、IBM、百度以及 Facebook 等公司在文档识别,人机交互,图片标注、语音识别和视频分析等等技术的奠基石。

LeCun 教授是 IJCV、PAMI 和 IEEE Trans 的审稿人。CVPR06 的程序主席、ICLR2013 和 2014 的主席。他是 IPAM(Institute for Pure and Applied Mathematics)的顾问。他是 2014 年 IEEE 神经网络领军人物奖获得者。

本文的采访者是另一位大牛 Gregory Piatetsky,KDD 会议创始人,是 1989,1991 和 1993 年 KDD 的主席,SIGKDD 第一个服务奖章获得者,KDnuggets 网站和周刊的维护者。

本文主要内容有,是什么给深度学习带来了今日如此令世人瞩目的成绩,Yann Lecun 和 Vapnik 关于神经网络和核函数(支持向量机)的争论,以及 Facebook 理想中的 AI 是什么样子的。

以下为采访原文:

问:人工神经网络的研究已经有五十多年了,但是最近才有非常令人瞩目的结果,在诸如语音和图像识别这些比较难的问题上,是什么因素让深度学习网络胜出了呢?数据?算法?硬件?

答:虽然大部分人的感觉是人工神经网络最近几年才迅速崛起,但实际上上个世纪八十年代以后,就有很多成功的应用了。深度学习指的是,任何可以训练多于两到三个非线性隐含层模型的学习算法。大概是 2003 年,Geoff Hinton,Yoshua Bengio 和我策划并鼓动机器学习社区将兴趣放在表征学习这个问题上(和简单的分类器学习不同)。直到 2006-2007 年左右才有了点味道,主要是通过无监督学习的结果(或者说是无监督预训练,伴随监督算法的微调),这部分工作是 Geoff Hinton,Yoshua Bengio,Andrew Ng 和我共同进行的。

但是大多数最近那些有效果的深度学习,用得还是纯监督学习加上后向传播算法,跟上个世纪八十年代末九十年代初的神经网络没太大区别。

区别在于,我们现在可以在速度很快的 GPU 上跑非常大非常深层的网络(比如有时候有十亿连接,12 层),而且还可以用大规模数据集里面的上百万的样本来训练。过去我们还有一些训练技巧,比如有个正则化的方法叫做 dropout ,还有克服神经元的非线性问题,以及不同类型的空间池化(spatial pooling)等等。

很多成功的应用,尤其是在图像识别上,都采用的是卷积神经网络( ConvNet ),是我上个世纪八九十年代在贝尔实验室开发出来的。后来九十年代中期,贝尔实验室商业化了一批基于卷积神经网络的系统,用于识别银行支票(印刷版和手写版均可识别)。

经过了一段时间,其中一个系统识别了全美大概 10% 到 20% 的支票。最近五年,对于卷积神经网络的兴趣又卷土重来了,很多漂亮的工作,我的研究小组有参与,以及 Geoff Hinton,Andrew Ng 和 Yoshua Bengio,还有瑞士 IDSI 的 AJargen Schmidhuber,以及加州的 NEC。卷积神经网络现在被 Google,Facebook,IBM,百度,NEC 以及其他互联网公司广泛使用,来进行图像和语音识别。(Gregory Piatetsky 注:Yann Lecun 教授的一个学生,最近赢得了 Kaggle 上猫狗识别的比赛,用的就是卷积神经网络,准确度 98.9%。)

问:深度学习可不是一个容易用的方法,你能给大家推荐一些工具和教程么?大家都挺想从在自己的数据上跑跑深度学习。

答:基本上工具有两个推荐:

他们的设计哲学不尽相同,各有千秋。Torch7 是 LuaJIT 语言的一个扩展,提供了多维数组和数值计算库。它还包括一个面向对象的深度学习开发包,可用于计算机视觉等研究。Torch7 的主要优点在于 LuaJIT 非常快,使用起来也非常灵活(它是流行脚本语言 Lua 的编译版本)。

Theano 加上 Pylearn 先天就有 Python 语言带来的优势(Python 是广泛应用的脚本语言,很多领域都有对应的开发库),劣势也是应为用 Python,速度慢。

问:咱俩很久以前在 KXEN** 的科学咨询会议上见过,当时 Vapnik **** 的概率学习理论和支持向量机( SVM )是比较主流的。深度学习和支持向量机 /**概率学习理论有什么关联?

答:1990 年前后,我和 Vapnik 在贝尔实验室共事,归属于 Larry Jackel 的自适应系统研究部,我俩办公室离得很近。卷积神经网络,支持向量机,正切距离以及其他后来有影响的方法都是在这发明出来的,问世时间也相差无几。1995 年 AT&T 拆分朗讯以后,我成了这个部门的领导,部门后来改成了 AT&T 实验室的图像处理研究部。部门当时的机器学习专家有 Yoshua Bengio, Leon Bottou,Patrick Haffner 以及 Vladimir Vapnik,还有几个访问学者以及实习生。

我和 Vapnik 经常讨论深度网络和核函数的相对优缺点。基本来讲,我一直对于解决特征学习和表征学习感兴趣。我对核方法兴趣一般,因为它们不能解决我的问题。老实说,支持向量机作为通用分类方法来讲,是非常不错的。但是话说回来,它们也只不过是简单的两层模型,第一层是用核函数来计算输入数据和支持向量之间相似度的单元集合。第二层则是线性组合了这些相似度。

第一层就是用最简单的无监督模型训练的,即将训练数据作为原型单元存储起来。基本上来说,调节核函数的平滑性,产生了两种简单的分类方法:线性分类和模板匹配。大概十年前,由于评价核方法是一种包装美化过的模板匹配,我惹上了麻烦。Vapnik,站在我对立面,他描述支持向量机有非常清晰的扩展控制能力。“窄”核函数所产生的支持向量机,通常在训练数据上表现非常好,但是其普适性则由核函数的宽度以及对偶系数决定。Vapnik 对自己得出的结果非常自信。他担心神经网络没有类似这样简单的方式来进行扩展控制(虽然神经网络根本没有普适性的限制,因为它们都是无限的 VC 维)。

我反驳了他,相比用有限计算能力来计算高复杂度函数这种能力,扩展控制只能排第二。图像识别的时候,移位、缩放、旋转、光线条件以及背景噪声等等问题,会导致以像素做特征的核函数非常低效。但是对于深度架构比如卷积网络来说却是小菜一碟。

问:祝贺你成为 Facebook人工智能实验室的主任。你能给讲讲未来几年 Facebook在人工智能和机器学习上能有什么产出么?

答:非常谢谢你,这个职位是个非常难得的机会。基本上来讲,Facebook 的主要目标是让人与人更好的沟通。但是 ** 当今的人们被来自朋友、新闻、网站等等信息来源狂哄乱炸。Facebook帮助人们来在信息洪流中找到正确的方向。这就需要 Facebook**能知道人们对什么感兴趣,什么是吸引人的,什么让人快乐,什么让人们学到新东西。这些知识,只有人工智能可以提供。人工智能的进展,将让我们理解各种内容,比如文字,图片,视频,语音,声音,音乐等等。

问:长期来看,你觉得人工智能会变成什么样?我们会不会达到 Ray Kurzweil**** 所谓的奇点?

答:我们肯定会拥有智能机器。这只是时间问题。我们肯定会有那种虽然不是非常聪明,但是可以做有用事情的机器,比如无人驾驶车。

至于这需要多长时间?人工智能研究者之前很长的一段时间都低估了制造智能机器的难度。我可以打个比方:研究进展就好像开车去目的地。当我们在研究上发现了新的技术,就类似在高速路上开车一样,无人可挡,直达目的地。

但是现实情况是,我们是在一片浓雾里开车,我们没有意识到,研究发现的所谓的高速公路,其实只是一个停车场,前方的尽头有一个砖墙。很多聪明人都犯了这个错误,人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。感知机技术、基于规则的专家系统、神经网络、图模型、支持向量机甚至是深度学习,无一例外,直到我们找到新的技术。当然这些技术,从来就不是完全失败的,它们为我们带来了新的工具、概念和算法。

虽然我相信我们最终一定会制造出超越人类智能的机器,但是我并不相信所谓的奇点理论。大部分人觉得技术的进展是个指数曲线,其实它是个 S 型曲线。S 型曲线刚开始的时候跟指数曲线很像。而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及 S 曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。

问:你还在 NYU数据科学中心当兼职主任,你怎么权衡或者结合在 Facebook的工作?

答:我在 NYU 数据科学中心已经不再担任实际职务了,而是名誉主任。在新的主任选举出来以前,代理主任是 S.R. Srinivasa “Raghu” Varadha ,世界上最有名的统计学家。NYU 已经展开了新主任的遴选工作。在数据科学中心的建立过程中,我花费了相当大的精力。我们现在数据科学方面有硕士生项目,未来会有博士生项目。现在中心有 9 个工作空缺,和 Berkeley 和华盛顿大学合作,我们从 Moore 和 Sloan 基金会拿到了非常大的一个五年基金支持,中心现在和 Facebook 等各大公司都有合作伙伴关系,我们马上要盖新大楼。下一任中心主任将会非常热爱自己的工作!

问:“数据科学”这个词,近来经常出现,被认为是统计学、商业智能等学科的交叉。这个数据科学和之前的“数据挖掘”或者“预测分析”有什么不同?它是一个新学科?它的公理和原则有哪些?

答:数据科学指的是自动或半自动地从数据中抽取知识。这个过程涉及很多的学科,每个学科对它都有自己的名字,包括概率估计,数据挖掘,预测分析,系统辨识,机器学习,人工智能等等。

从各个学科的角度,统计学、机器学习以及某些应用数学,都可以声称是数据科学的起源。但是实际上,数据科学之于统计学、机器学习以及应用数学,正如上个世纪六十年代的计算机科学之于电子电气、物理和数学。后来计算机科学变成了一个完全成熟的独立学科,而不是数学或者工程的子学科,完全是因为它对社会非常重要。

当今的数字时代,数据指数级别的疯涨,从数据中自动抽取知识这个问题,已经逐渐成为了人们的焦点。这正促进数据科学成为一个真正独立的学科。也促进着统计学、机器学习和数学重新划定自己的学科界限。数据科学还创造了“方法学科”的科学家和“领域学科”如自然科学、商科、药学和政府的工作人员紧密交流的机会。

我预测,未来十年,很多顶尖大学都会设立数据科学系。

问:您对于“大数据”这个词怎么看?作为一种趋势或者一个时髦词,它有多少成分是夸大,多少是真实的?

答:对于这个词,我觉得最近社交网络上比较流行的那个笑话非常贴切,把大数据比作青少年性行为:每个人都在谈论它,没人知道到底怎么做,每个人都以为其他人知道怎么做,所以每个人都声称自己也在做,这个笑话我是从 Dan Ariely 的 Facebook 上看到的。

我碰到过一些人,哪怕是闪盘可以存下,笔记本可以处理的数据,都坚持使用 Hadoop 来处理。

这个词确实被夸大了。但是如何收集、存储和分析海量数据这个问题是实际存在的。我经常怀疑的是诸如“大数据”这样的名字而已,因为今日的大数据,将成为明日的小数据。还有,很多问题都是因为数据量不足而产生的,比如基因和医疗数据,数据永远都不会够用。

问:数据科学家被称为“二十一世纪最性感的职业”。你给想要进入这个领域的人们提一点建议?

答:如果你是个本科生,多学数学、统计学还有物理学,更重要的是你要学着写代码(学三到四门计算机课程)。如果你有本科学位,那么你可以申请 NYU 数据科学中心的硕士项目

问:你最近对哪本书比较感兴趣?不接触计算机和手机的时候你都在干些什么?

答:在我空闲的时候,我会造一些微型飞行器,我非常喜欢 3D 打印,我还经常研究带微控制器的电路板,我还希望能更好的制造音乐(我收集电子风门控制器)。大多数非小说的作品我都看,还听可多的爵士乐(或者类似的音乐)。

查看英语原文: http://www.kdnuggets.com/2014/02/exclusive-yann-lecun-deep-learning-facebook-ai-lab.html


感谢吴甘沙对本文的审校, 感谢包研对本文的策划。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ )或者腾讯微博( @InfoQ )关注我们,并与我们的编辑和其他读者朋友交流。

2014-04-30 01:469237
用户头像

发布了 268 篇内容, 共 123.0 次阅读, 收获喜欢 24 次。

关注

评论

发布
暂无评论
发现更多内容

膜拜~ 终于拿到了美团老大哥分享的 Netty 源码剖析与应用 PDF

程序知音

Java 程序员 架构 Netty 后端技术

K8S多集群管理很难?试试Karmada | K8S Internals系列第3期

BoCloud博云

容器 容器云 K8s 多集群管理

终于有人把操作系统、网络系统、线程进程、IO模型全部总结出来了

程序知音

Java 后端 操作系统 网络 TCP/IP

移动研发平台EMAS 3.0全新升级,欢迎登陆阿里云官网搜索EMAS进行体验

移动研发平台EMAS

阿里云 emas 移动测试 移动研发 产品架构

真人踩过的坑,告诉你避免自动化测试新手常犯的10个错误

禅道项目管理

自动化 测试 自动化测试

前两天面了个腾讯拿 38K 出来的,让我见识到了基础的天花板,今天share给大家~

程序知音

Java 程序员 java面试 后端技术 八股文

2022亚洲国际物联网展会

AIOTE智博会

物联网展览会

C# 使用Timer和ProgressBar控件制作一个倒计时器

IC00

C# 7月月更

百度APP Android包体积优化实践(二)Dex行号优化

百度Geek说

Java Andriod

2022长三角工业自动化展会将于10月在南京国际展览中心召开

AIOTE智博会

工业自动化展会 工业机器人展会 江苏工博会

数字藏品系统开发——商城盲盒h5平台搭建

开源直播系统源码

数字藏品 数字藏品系统软件开发 NFT数字藏品系统 数字藏品源码出售 数字藏品交易平台开发

数字化转型失败的罪魁祸首是什么?

雨果

数字化转型 DaaS数据即服务

JS数组方法

bo

JavaScript 前端 7月月更

Linux 文件系统函数

贾献华

7月月更

2022年数据库审计产品排行榜-必看!

行云管家

数据库 数据库审计

首发!这份字节大佬亲码算法面试大厂进阶宝典,让你轻松刷爆LeetCode!

了不起的程序猿

字节跳动 算法 java程序员

【等保小知识】等保整改是什么意思?整改内容包括哪些?

行云管家

等保测评 等级测评 等保整改

void 0 有什么意义?undefined竟然是可变的?

南极一块修炼千年的大冰块

7月月更

Kyligence 出席华为全球智慧金融峰会,加速拓展全球市场

Kyligence

数据湖 数据分析 OLAP

hive数据导入:Python脚本

怀瑾握瑜的嘉与嘉

Python hive 7月月更

仅需一个依赖给Swagger换上新皮肤,既简单又炫酷

程序知音

Idea 连接 MySQL 数据库

攻城狮杰森

MySQL IDEA database 7月月更

Python 爬虫 JS 逆向 X-Bogus,signature 加密算法,AST 理论篇

梦想橡皮擦

Python 爬虫 7月月更

今日分享| 阿里巴巴内部最新Docker精髓笔记

冉然学Java

Java Docker 阿里 #技术干货# Java 开发

学界VS工业界:深度学习究竟能不能打破视频编解码天花板

小红书技术REDtech

深度学习 音视频 视频编解码 音视频技术

长期的远程工作面临的几个问题和持续改进的组织自动化

Ryan Zheng

远程办公

融云超级群的「新能力」

融云 RongCloud

ios Android;

这次和GrowingIO工程师一起搞事情 | StartDT Hackathon

奇点云

设计消息队列存储消息数据的 MySQL 表格

Fan

架构实战营

strcmp() - 比较字符串

謓泽

7月月更

国产统信UOS系统运行小程序的探索

Geek_99967b

小程序

对话Facebook人工智能实验室主任、深度学习专家Yann LeCun_大数据_Gregory Piatetsky_InfoQ精选文章