Yann LeCun (燕乐存),Facebook 人工智能实验室主任,NYU 数据科学中心创始人,计算机科学、神经科学、电子电气科学教授。他 1983 年在 ESIEE 获得电气工程学位,1987 年在 UPMC 获得计算机博士学位。在多伦多大学做了一段时间博士后,于 1988 年加入位于新泽西州的 AT&T 贝尔实验室。1996 年他成为图像处理研究部的主任,2003 年,在普林斯顿 NEC 研究院经历短暂的 Fellow 生活以后,加入 NYU。2013 年,他被 Facebook 聘请为人工智能实验室主任,同时仍在 NYU 兼职。
他目前的研究兴趣在于:机器学习,计算机认知,移动机器人以及计算神经学。在这些领域他发表了 180 余篇论文和图书,涉及主题有神经网络、手写体识别、图像处理和压缩以及计算机认知的专用电路和架构。他在贝尔实验室研发的字符识别技术,被全世界多家银行用于识别支票,早在 2000 年左右,该程序识别了全美 10%-20% 的支票。他发明的图片压缩技术 DjVu,被数百家网站和出版商采纳,拥有上百万用户。他研发的一个识别方法,卷积网络,是 AT&T、Google、微软、NEC、IBM、百度以及 Facebook 等公司在文档识别,人机交互,图片标注、语音识别和视频分析等等技术的奠基石。
LeCun 教授是 IJCV、PAMI 和 IEEE Trans 的审稿人。CVPR06 的程序主席、ICLR2013 和 2014 的主席。他是 IPAM(Institute for Pure and Applied Mathematics)的顾问。他是 2014 年 IEEE 神经网络领军人物奖获得者。
本文的采访者是另一位大牛 Gregory Piatetsky,KDD 会议创始人,是 1989,1991 和 1993 年 KDD 的主席,SIGKDD 第一个服务奖章获得者,KDnuggets 网站和周刊的维护者。
本文主要内容有,是什么给深度学习带来了今日如此令世人瞩目的成绩,Yann Lecun 和 Vapnik 关于神经网络和核函数(支持向量机)的争论,以及 Facebook 理想中的 AI 是什么样子的。
以下为采访原文:
问:人工神经网络的研究已经有五十多年了,但是最近才有非常令人瞩目的结果,在诸如语音和图像识别这些比较难的问题上,是什么因素让深度学习网络胜出了呢?数据?算法?硬件?
答:虽然大部分人的感觉是人工神经网络最近几年才迅速崛起,但实际上上个世纪八十年代以后,就有很多成功的应用了。深度学习指的是,任何可以训练多于两到三个非线性隐含层模型的学习算法。大概是 2003 年,Geoff Hinton,Yoshua Bengio 和我策划并鼓动机器学习社区将兴趣放在表征学习这个问题上(和简单的分类器学习不同)。直到 2006-2007 年左右才有了点味道,主要是通过无监督学习的结果(或者说是无监督预训练,伴随监督算法的微调),这部分工作是 Geoff Hinton,Yoshua Bengio,Andrew Ng 和我共同进行的。
但是大多数最近那些有效果的深度学习,用得还是纯监督学习加上后向传播算法,跟上个世纪八十年代末九十年代初的神经网络没太大区别。
区别在于,我们现在可以在速度很快的 GPU 上跑非常大非常深层的网络(比如有时候有十亿连接,12 层),而且还可以用大规模数据集里面的上百万的样本来训练。过去我们还有一些训练技巧,比如有个正则化的方法叫做 dropout ,还有克服神经元的非线性问题,以及不同类型的空间池化(spatial pooling)等等。
很多成功的应用,尤其是在图像识别上,都采用的是卷积神经网络( ConvNet ),是我上个世纪八九十年代在贝尔实验室开发出来的。后来九十年代中期,贝尔实验室商业化了一批基于卷积神经网络的系统,用于识别银行支票(印刷版和手写版均可识别)。
经过了一段时间,其中一个系统识别了全美大概 10% 到 20% 的支票。最近五年,对于卷积神经网络的兴趣又卷土重来了,很多漂亮的工作,我的研究小组有参与,以及 Geoff Hinton,Andrew Ng 和 Yoshua Bengio,还有瑞士 IDSI 的 AJargen Schmidhuber,以及加州的 NEC。卷积神经网络现在被 Google,Facebook,IBM,百度,NEC 以及其他互联网公司广泛使用,来进行图像和语音识别。(Gregory Piatetsky 注:Yann Lecun 教授的一个学生,最近赢得了 Kaggle 上猫狗识别的比赛,用的就是卷积神经网络,准确度 98.9%。)
问:深度学习可不是一个容易用的方法,你能给大家推荐一些工具和教程么?大家都挺想从在自己的数据上跑跑深度学习。
答:基本上工具有两个推荐:
他们的设计哲学不尽相同,各有千秋。Torch7 是 LuaJIT 语言的一个扩展,提供了多维数组和数值计算库。它还包括一个面向对象的深度学习开发包,可用于计算机视觉等研究。Torch7 的主要优点在于 LuaJIT 非常快,使用起来也非常灵活(它是流行脚本语言 Lua 的编译版本)。
Theano 加上 Pylearn 先天就有 Python 语言带来的优势(Python 是广泛应用的脚本语言,很多领域都有对应的开发库),劣势也是应为用 Python,速度慢。
问:咱俩很久以前在 KXEN** 的科学咨询会议上见过,当时 Vapnik **** 的概率学习理论和支持向量机( SVM )是比较主流的。深度学习和支持向量机 /**概率学习理论有什么关联?
答:1990 年前后,我和 Vapnik 在贝尔实验室共事,归属于 Larry Jackel 的自适应系统研究部,我俩办公室离得很近。卷积神经网络,支持向量机,正切距离以及其他后来有影响的方法都是在这发明出来的,问世时间也相差无几。1995 年 AT&T 拆分朗讯以后,我成了这个部门的领导,部门后来改成了 AT&T 实验室的图像处理研究部。部门当时的机器学习专家有 Yoshua Bengio, Leon Bottou,Patrick Haffner 以及 Vladimir Vapnik,还有几个访问学者以及实习生。
我和 Vapnik 经常讨论深度网络和核函数的相对优缺点。基本来讲,我一直对于解决特征学习和表征学习感兴趣。我对核方法兴趣一般,因为它们不能解决我的问题。老实说,支持向量机作为通用分类方法来讲,是非常不错的。但是话说回来,它们也只不过是简单的两层模型,第一层是用核函数来计算输入数据和支持向量之间相似度的单元集合。第二层则是线性组合了这些相似度。
第一层就是用最简单的无监督模型训练的,即将训练数据作为原型单元存储起来。基本上来说,调节核函数的平滑性,产生了两种简单的分类方法:线性分类和模板匹配。大概十年前,由于评价核方法是一种包装美化过的模板匹配,我惹上了麻烦。Vapnik,站在我对立面,他描述支持向量机有非常清晰的扩展控制能力。“窄”核函数所产生的支持向量机,通常在训练数据上表现非常好,但是其普适性则由核函数的宽度以及对偶系数决定。Vapnik 对自己得出的结果非常自信。他担心神经网络没有类似这样简单的方式来进行扩展控制(虽然神经网络根本没有普适性的限制,因为它们都是无限的 VC 维)。
我反驳了他,相比用有限计算能力来计算高复杂度函数这种能力,扩展控制只能排第二。图像识别的时候,移位、缩放、旋转、光线条件以及背景噪声等等问题,会导致以像素做特征的核函数非常低效。但是对于深度架构比如卷积网络来说却是小菜一碟。
问:祝贺你成为 Facebook人工智能实验室的主任。你能给讲讲未来几年 Facebook在人工智能和机器学习上能有什么产出么?
答:非常谢谢你,这个职位是个非常难得的机会。基本上来讲,Facebook 的主要目标是让人与人更好的沟通。但是 ** 当今的人们被来自朋友、新闻、网站等等信息来源狂哄乱炸。Facebook帮助人们来在信息洪流中找到正确的方向。这就需要 Facebook**能知道人们对什么感兴趣,什么是吸引人的,什么让人快乐,什么让人们学到新东西。这些知识,只有人工智能可以提供。人工智能的进展,将让我们理解各种内容,比如文字,图片,视频,语音,声音,音乐等等。
问:长期来看,你觉得人工智能会变成什么样?我们会不会达到 Ray Kurzweil**** 所谓的奇点?
答:我们肯定会拥有智能机器。这只是时间问题。我们肯定会有那种虽然不是非常聪明,但是可以做有用事情的机器,比如无人驾驶车。
至于这需要多长时间?人工智能研究者之前很长的一段时间都低估了制造智能机器的难度。我可以打个比方:研究进展就好像开车去目的地。当我们在研究上发现了新的技术,就类似在高速路上开车一样,无人可挡,直达目的地。
但是现实情况是,我们是在一片浓雾里开车,我们没有意识到,研究发现的所谓的高速公路,其实只是一个停车场,前方的尽头有一个砖墙。很多聪明人都犯了这个错误,人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。感知机技术、基于规则的专家系统、神经网络、图模型、支持向量机甚至是深度学习,无一例外,直到我们找到新的技术。当然这些技术,从来就不是完全失败的,它们为我们带来了新的工具、概念和算法。
虽然我相信我们最终一定会制造出超越人类智能的机器,但是我并不相信所谓的奇点理论。大部分人觉得技术的进展是个指数曲线,其实它是个 S 型曲线。S 型曲线刚开始的时候跟指数曲线很像。而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及 S 曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。
问:你还在 NYU数据科学中心当兼职主任,你怎么权衡或者结合在 Facebook的工作?
答:我在 NYU 数据科学中心已经不再担任实际职务了,而是名誉主任。在新的主任选举出来以前,代理主任是 S.R. Srinivasa “Raghu” Varadha ,世界上最有名的统计学家。NYU 已经展开了新主任的遴选工作。在数据科学中心的建立过程中,我花费了相当大的精力。我们现在数据科学方面有硕士生项目,未来会有博士生项目。现在中心有 9 个工作空缺,和 Berkeley 和华盛顿大学合作,我们从 Moore 和 Sloan 基金会拿到了非常大的一个五年基金支持,中心现在和 Facebook 等各大公司都有合作伙伴关系,我们马上要盖新大楼。下一任中心主任将会非常热爱自己的工作!
问:“数据科学”这个词,近来经常出现,被认为是统计学、商业智能等学科的交叉。这个数据科学和之前的“数据挖掘”或者“预测分析”有什么不同?它是一个新学科?它的公理和原则有哪些?
答:数据科学指的是自动或半自动地从数据中抽取知识。这个过程涉及很多的学科,每个学科对它都有自己的名字,包括概率估计,数据挖掘,预测分析,系统辨识,机器学习,人工智能等等。
从各个学科的角度,统计学、机器学习以及某些应用数学,都可以声称是数据科学的起源。但是实际上,数据科学之于统计学、机器学习以及应用数学,正如上个世纪六十年代的计算机科学之于电子电气、物理和数学。后来计算机科学变成了一个完全成熟的独立学科,而不是数学或者工程的子学科,完全是因为它对社会非常重要。
当今的数字时代,数据指数级别的疯涨,从数据中自动抽取知识这个问题,已经逐渐成为了人们的焦点。这正促进数据科学成为一个真正独立的学科。也促进着统计学、机器学习和数学重新划定自己的学科界限。数据科学还创造了“方法学科”的科学家和“领域学科”如自然科学、商科、药学和政府的工作人员紧密交流的机会。
我预测,未来十年,很多顶尖大学都会设立数据科学系。
问:您对于“大数据”这个词怎么看?作为一种趋势或者一个时髦词,它有多少成分是夸大,多少是真实的?
答:对于这个词,我觉得最近社交网络上比较流行的那个笑话非常贴切,把大数据比作青少年性行为:每个人都在谈论它,没人知道到底怎么做,每个人都以为其他人知道怎么做,所以每个人都声称自己也在做,这个笑话我是从 Dan Ariely 的 Facebook 上看到的。
我碰到过一些人,哪怕是闪盘可以存下,笔记本可以处理的数据,都坚持使用 Hadoop 来处理。
这个词确实被夸大了。但是如何收集、存储和分析海量数据这个问题是实际存在的。我经常怀疑的是诸如“大数据”这样的名字而已,因为今日的大数据,将成为明日的小数据。还有,很多问题都是因为数据量不足而产生的,比如基因和医疗数据,数据永远都不会够用。
问:数据科学家被称为“二十一世纪最性感的职业”。你给想要进入这个领域的人们提一点建议?
答:如果你是个本科生,多学数学、统计学还有物理学,更重要的是你要学着写代码(学三到四门计算机课程)。如果你有本科学位,那么你可以申请 NYU 数据科学中心的硕士项目。
问:你最近对哪本书比较感兴趣?不接触计算机和手机的时候你都在干些什么?
答:在我空闲的时候,我会造一些微型飞行器,我非常喜欢 3D 打印,我还经常研究带微控制器的电路板,我还希望能更好的制造音乐(我收集电子风门控制器)。大多数非小说的作品我都看,还听可多的爵士乐(或者类似的音乐)。
查看英语原文: http://www.kdnuggets.com/2014/02/exclusive-yann-lecun-deep-learning-facebook-ai-lab.html
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ )或者腾讯微博( @InfoQ )关注我们,并与我们的编辑和其他读者朋友交流。
评论