1943 年,IBM 副总裁预言“5 台计算机就能满足全世界的需要”;1949 年,美国《大众机械》杂志预测“今后计算机虽然也很重,但不会超过 1.5 吨”;1981 年,比尔·盖茨说“640 千(0.64 兆)位的存贮容量对所有的人都足够了”;今天,属于 AI 的时代即将到来吗?
背景介绍
近日,一 ID 为“Master”的神秘网络围棋手在弈城、野狐等围棋对战平台上轮番挑战包括中国围棋名将柯洁、聂卫平、古力,韩国围棋冠军朴廷桓在内的多名世界职业顶尖高手,连胜 60 场,没有败绩!
吃瓜群众们一度回想起了那个被 AlphaGo 统治的日子,在 1 月 4 日对弈中国棋手古力前,Master 自曝:“我是 AlphaGo 的黄博士”! 黄博士,就是代 Master 执子的 AlphaGo 团队的黄士杰博士!也是 2016 年 3 月 AlphaGo 与韩国围棋九段李世石进行人机大战时,坐在李世石对面代 AlphaGo 落子的那个人!黄世杰,2012 年加入 DeepMind 团队。据悉,他也是一位围棋高手。
与此同时,在 Master 自亮身份后,DeepMind 创始人兼 CEO Demis Hassabis 在自己的 Twitter 上也发表了一份声明,证明 Master 就是升级版的 AlphaGo!
AlphaGo 真正开始吸引人类眼球的事件还是 2016 年 3 月的人机大战,当时 AlphaGo 以总比分 4:1 大败韩国世界冠军李世石九段,让人们开始真正正视 AlphaGo 背后的深度学习技术,开始关注它的背后团队 DeepMind, 开始重新审视人工智能的意义。
AlphaGo 是什么?
在 2016 年 1 月的 Nature 报道中有 AlphaGo 的详细介绍,AlphaGo 是一套为了围棋而特意优化、设计周密的深度学习引擎,使用了神经网路加上 MCTS (Monte Carlo tree search),并且用上了谷歌巨大的云计算资源,CPU+GPU 并行结合,能够根据棋谱学习和自我学习。它的背后不仅有世界顶级的计算机科学家和机器学习专家(DeepMind 团队)做技术支持,还有谷歌后台强大的计算平台做支撑。
AlphaGo 的技术支撑
AlphaGo 主要用到了两个技术:第一个是蒙特卡洛树搜索,第二是深度神经网络。蒙特卡洛树搜索类似为为左右手互博。互博时间越长,相当于把各种可能的对弈方案都统统演练一遍。当 AlphaGo 的训练时间越长,那么它对各种对弈方案也就越加了解,自身也就更加的强大。而所使用的深度神经网络,主要包括两个方面,Value Networks(价值网络)和 Policy Networks(策略网络)。Value Networks 主要用来评估棋盘位置,而 Policy Networks 则是用来选择走棋步法,这些神经网络模型通过一种新的方法进行训练,结合人类专家比赛中学到的监督学习,以及在自己和自己下棋(Self-Play)中进行自我强化学习。
AlphaGo 背后的团队
相信自去年 AlphaGo 大败围棋界传奇李世石事件后,大家对于 AlphaGo 背后的技术团队也有了一定了解。是的,AlphaGo 背后的技术团队正是 2014 年被谷歌收购的一家英国的人工智能初创公司——DeepMind。其实,想要获取 DeepMind 都做过哪些事,那么它的官方博客上的一篇回顾2016 的文章描述的再详细不过:
博客中主要列举了DeepMind 2016 年所做的一些重大事件。比如,AlphaGo 击败了世界冠军李世石,给人类对人工智能的发展带来了更多的信心与希望;发布了最新原始音频波形深度生成模型音频WaveNet 的研究论文,使得DeepMind 在生成模型领域取得了意义非凡的进展;提出了可微分神经计算机的神经网络模型(Differentiable Neural Computer,简称 DNC),为解决如何将神经网络的智能决策和复杂结构化数据的存储、推理能力结合起来提供帮助;开源深度学习训练平台DeepMind Lab; 宣布了与NHS(英国国家医疗服务体系)建立合作关系等。
谷歌收购DeepMind 团队的时间并不长,DeepMind 却为谷歌带来了丰厚的回报。加上此次Master 狂虐围棋界各顶尖高手事件,让世人对AlphaGo、对DeepMind、对谷歌都更加刮目相看。有人说,此次Master 事件就是一场盛大营销,谷歌赢了。但是,无论营销也好,热炒也罢,不得不承认,AlphaGo 确实有了很大进步,AI 让人类又看到了更多无限可能。
AlphaGo 团队元老谈 AI
深度学习与其历史
深度学习不过是旧瓶装新酒。它主要是关于含多隐层的深度神经网络。利用现在的高性能计算机,这样的网络带来了模式识别和机器学习方面的革命。深度学习这一概念首先由 Dechter 在 1986 年引入到机器学习领域,然后由 Aizenberg 等在 2000 年引入到人工神经网络中。
深度学习之父是乌克兰的数学家 Ivakhnenko。在 1965 年,他(与 Lapa)发表了第一篇有关深度前向多层感知器的学习算法。在 1971 年,Ivakhnenko 已经描述了一个现在看来仍然很深的八层网络,并使用了当前仍然十分流行的方法对网络进行训练。考虑到当时计算机性能,他的想法实在是太超前了。
如何看待大获成功的 AlphaGo?
对于 Google DeepMind 的成功,我非常开心。其中一部分原因也在于我的很多学生都供职于该公司,并参与到了这个项目中。DeepMind 团队的四个初始成员中,有两个都是我的学生。而 AI 部门的首批博士也都来自 IDSIA 实验室——其中一个成为了联合创始人,另一个为首批员工。而曾经在 2010 年 Atari-Go 上与我联合发表文章的博士生等也在后来加入到了 DeepMind 团队。
围棋是一个马尔科夫假设成立的棋盘游戏:理论上来说,当前输入(棋盘的状态)已经包含了决定本次最佳下子的所有信息(完全不需要考虑之前的状态历史)。也即是说,这个游戏可以通过传统的增强学习(RL)来进行处理。这就跟 IBM 的 Tesauro 在 1994 年赢象棋冠军的情况有点像。
然而,今天的成功更多的要获益于运算速度比之前快很多倍的计算机。在过去几年,围棋算法已经大大改进了。为了了解一个好的围棋选手,DeepMind 系统会综合采用监督学习和基于蒙特卡洛树搜索的增强学习等若干种传统方法。在不久的将来,人工智能系统和人类进行围棋方面的对垒将会变得非常有趣。
然而,不幸的是,马尔科夫条件在现实中未必总是满足。这就是为什么存在于部分可观察环境中的 RL 机器人的通用人工智能(Artificial General Intelligence,AGI)需要更加巧妙的学习算法。
机器可以像人一样学习吗?
现在还不行,但未来可能很快可以。无监督数据压缩(就像上一个问题中提到的)是基于 RNN 的自适应 Agent 的核心组件。该 Agent 利用基于 RNN 的预测世界模型来更好的规划和达到目标。我们在 1990 年开始这方面的工作,并取得了很大进展。
人工智能的极限在哪里?
人工智能的极限就是计算的极限。在 1931 年,理论计算科学的创始人 Kurt Gödel 就提出了计算的极限——不完备定理。Gödel 表示,任何一个相容的数学形式化理论中,只要它强到足以蕴涵皮亚诺算术公理,就可以在其中构造在体系中既不能证明也不能否证的命题。
人类应该做那些完全不难而又有趣的工作,而机器完成除此以外的所有工作。
PS:谷歌DeepMind Lab 已开源,你可以量身打造你的 个人AlphaGo 了。
感谢 Ryan 对本文的审校。
给 InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论