产品战略专家梁宁确认出席AICon北京站,分享AI时代下的商业逻辑与产品需求 了解详情
写点什么

AI 走向自我毁灭?DeepMind 一年亏损 40 亿到底意味着什么

  • 2019-08-17
  • 本文字数:3614 字

    阅读完需:约 12 分钟

AI走向自我毁灭?DeepMind一年亏损40亿到底意味着什么

Alphabet 公司旗下的人工智能研究 DeepMind 正把大笔资金投入到围棋及其它经典游戏的 AI 解决方案身上,可是 DeepMind 在盈利方面却是连年亏损的状态。在本文作者看来:这种只有投入、没有产出的状态,可能会危及 AI 领域的资金健康。


Alphabet 公司旗下的 DeepMind 单在过去一年中就烧掉了 5.72 亿美元(约 40 亿人民币)。这背后到底隐藏着怎样的真相?


作为世界上规模最大的人工智能研究机构之一,DeepMind 在过去三年当中持续亏损,总资金投入已经超过 10 亿美元。在未来 12 个月内,DeepMind 还打算额外投入超过 10 亿美元预算。


这是否意味着 AI 正在走向自我毁灭?


并不尽然。研究就是个花钱的事儿,而 DeepMind 每年都在推动大量研究性工作。虽然涉及的金额很大,至少要比以往任何 AI 研究工作都要费钱,但与那些科学领域顶级规模的项目相比,这样的数目还远不足以说明问题。大型强子对接机每年的维护费用就高达 10 亿美元,而发现希格斯玻色子的总成本预计将超过 100 亿美元。当然,真正的机器智能(亦被称为人工通用智能,AGI)这种既能驾驶《星际迷航》中的战舰、又能分析自然语言中内容的伟大成果,其实现成本也绝对便宜不了。


但是,DeepMind 连年上涨的亏损额度仍是个值得关注的问题:2016 年其亏损额为 1.54 亿美元,2017 年为 3.41 亿美元,2018 年则为 5.72 亿美元。在我看来,其中包含三个核心问题:


  • DeepMind 在科学层面是否找到了正确方向?

  • 从 Alphabet 的角度来看,这种规模的投资是否合理?

  • 如此巨大的亏损,又会给整个 AI 市场造成怎样的影响?


先来看第一个问题,我们确实有理由提出质疑。DeepMind 把大部分鸡蛋都放进了同一个篮子里,也就是深度强化学习技术。这项技术主要用于在模型的识别当中把深度学习与强化学习结合起来,基于奖励信号实现学习能力,例如让系统学会在游戏中获得更高分数、或者在象棋等游戏中努力取胜。


DeepMind 在 2013 年凭借着一篇振奋人心的论文闯出了名号,这篇论文阐述了如何训练单一神经网络系统以游玩多种雅达利游戏——包括《突围》以及《太空入侵者》——而且获得等同甚至超越人类的成绩。这篇论文可以说是工程界的一场巡回演出,亦成为 DeepMind 在 2014 年 1 月接受谷歌收购的关键催化剂。这项技术的进一步发展,推动 DeepMind 在围棋以及《星际争霸》这款知名游戏中接连取得辉煌的胜利。


但问题在于,这种技术对于环境的限制非常具体甚至是苛刻。例如,在玩《突围》时,一点点微小的变化——例如将镜头焦点移动几个像素,其性能就会急剧下降。DeepMind 的《星际争霸》方案同样限制重重:在单一地图上使用同一“种族”进行对战时,其成绩确实优于人类;但在其它地图使用不同“种族”时,成绩就要差得多。要想切换操作风格,我们必须得从头开始重新训练这套系统。


从某种程度上讲,深度强化学习是一种经过涡轮增压的记忆系统;其能够提供很棒的实际表现,但对于工作内容的理解却非常肤浅。因此,这类系统缺乏充分的灵活性,因此无法根据周遭环境的变化——哪怕是极其微小的变化——做出自我调整。(DeepMind 最近公布的肾脏疾病检查方案,也因为类似的原因而受到质疑。)


深度强化学习还需要大量数据的支持——例如以自我对局的方式完成数百万盘围棋对弈。这远远超过人类精通围棋所需要的训练量,而且整个过程往往困难且成本高昂。只有谷歌这样的科技巨头才能为其提供充足的计算机资源,这也意味着在面对诸多现实世界中的问题时,用户往往无法依靠单一计算机获得类似的效果。据估算,AlphaGo 的整个训练成本高达 3500 万美元,其消耗的能量足以支持 12760 个人类大脑在三天内不眠不休地工作。


但这里讨论的只是经济意义。真正的问题是,正如 Ernest Davis 和我在即将出版的《重启 AI(Rebooting AI)》一书中的讨论,我们能否信任现在的这些 AI。目前,深度强化学习只在良好的受控环境下具备可信性;这一点对围棋来说不是什么问题,毕竟无论是 2000 年前还是现在,围棋棋盘都没发生过什么变化。但是,我们显然不敢直接把它投入到现实问题的处理当中。

鲜有商业成功

部分原因在于,目前很少有哪些现实问题能够像 DeepMind 所关注的游戏那样拥有严格的限制条件,因此时至今日 DeepMind 仍然拿不出任何成规模的深度强化学习商业应用。相比之下,Alphabet 已经在 DeepMind 身上砸下约 20 亿美元(包括 2014 年收购 DeepMind 的 6.5 亿美元)。但在宣传之外的直接财务回收方面,去年 DeepMind 仅带来了约 1.25 亿美元收入,其中一部分还来自在 Alphabet 内部应用深度强化学习以降低冷却成本所带来的电费节约。


适用于围棋的功能,也许并不适用于 DeepMind 原本打算解决的其它挑战性问题——例如癌症与清洁能源。无独有偶,IBM 公司当初凭借着 Watson 计划在电视问答节目当中大放异彩,但该项目在医学诊断方面则表现不佳。虽然能够在某些病例当中取得良好效果,但 Watson 在其它一些病例中却折戟沉沙,有时甚至会在心脏病发作这类症状上犯错——即使是刚刚接触医学的新生,也不至于如此粗心。


当然,这可能只是个时间问题。至少自 2013 年以来,DeepMind 一直致力于研究深度强化学习技术,但科学进步确实很少能够在短时间内转化为实际产品。DeepMind 以及其它研究机构,也许终将找到一种可行的方法,推动深度强化学习产生更深刻也更稳定的结果,或者是将其与其它技术结合起来——但这只是一种可能性。深度强化学习最终可能被证明像是当初的晶体管一样,成为一项彻底改变整个世界的实验室内发明;或者也有可能永远代表一种学术上的好奇心,唯一的价值就是强调人类“为问题寻求解决方案”的意志。我个人的猜测,是这项技术可能介于这两者之间——成为一种有用且广泛存在的工具,但没有能力改变世界。


虽然 DeepMind 目前的战略成果可能达不到很多人的预期,我们也不该随意对其加以指摘。深度强化学习虽然不一定是通往真正人工智能的坦途,但 DeepMind 本身仍是一家值得尊敬的组织,其运营严密、资金充足且拥有几百名高学位人才。围棋、雅达利以及《星际争霸》的成功,也帮助其吸引到更多后续人才。如果 AI 的风向标发生变化,DeepMind 无疑能够很好地适应不同的方向。就目前来看,还鲜有研究机构能够与 DeepMind 相匹敌。


与此同时,考虑到 Alphabet 的庞大资源背景,每年 5 亿美元似乎也不是太大的问题。Alphabet 公司非常睿智地决定在 AI 身上下注——包括 Google Brain 项目——其本身也在快速增长。Alphabet 可能会以多种方式调整自家 AI 成果的组合形式,但作为一家年收入高达 1000 亿美元的企业,其从搜索到广告推荐的所有业务几乎都依赖于人工智能,因此在这方面长期支持几个大项目并不是什么难事。

对于过度炒作的担忧

至于最后一个问题,我们恐怕很难判断 DeepMind 的经济学理念会给整个 AI 领域带来怎样的影响。如果炒作远高于交付,那么这有可能引发“人工智能寒冬”,甚至导致支持者不再投资。而如果 DeepMind 的亏损额度在接下来几年中仍然不断增长,就连 Alphabet 也有可能被迫选择退出。这并不只是资金的问题;到目前为止,DeepMind 也拿不出像样的财结果。这意味着到了特定时期,投资者也许将不得不重新调整自己对于 AI 技术的立场。


麻烦缠身的不只是 DeepMind。几年之前承诺的许多进展——例如无人驾驶汽车以及能够理解人类对话的聊天机器人,目前都没有实现。Mark Zuckerberg 曾在 2018 年 4 月向美国国会保证,AI 技术将很快解决虚假新闻问题。但是话好说、事难做,整个社会对于 AI 的观点,最终仍然取决于 AI 到底能够交出怎样的答卷。


就目前而言,真正的机器智能更多是种炒作而非实际方案。虽然 AI 在广告与语音识别等有限几个领域取得了重大进展,但可以肯定的是,AI 的发展还有很长的路要走。我们不能否认 AI 在对大数据集进行分析方面带来的助益,而且即使只有目前的水平,AI 也已经是一种非常强大的工具。虽然企业界也许对未来的 AI 不再倾力投入,但 AI 也绝对不会彻底销声匿迹。

我个人的预测?

十年之后,我们会得出结论,深度强化学习这几年来被高估了,并导致其它不少重要的研究途径遭到忽略。在强化学习领域投入的每一美元,都占用了其它研发经费的额度——例如本应花在人类谁知科学中的资金。机器学习研究人员现在经常会问,“机器如何利用大量数据来优化复杂问题?”但我们真正关心的问题是,“儿童为什么能够以远低于现有 AI 系统的数据与处理量,顺利掌握自然语言并了解现实世界?”如果我们能在后一个问题上多花点时间、金钱和精力,也许我们与人工通用智能的距离才真的不再遥远。

延伸阅读

Gary F. Marcus 是一位科学家、作家和企业家。他的研究重点是自然和人工智能。 Marcus 是纽约大学心理学系的教授,也是后来被优步收购的机器学习公司 Geometric Intelligence 的创始人兼首席执行官。


Marcus 曾于 Yann LeCun 就人工智能进行过多次辩论,AI 前线曾整理发布过一部分,感兴趣的读者可以点击以下标题阅读:


《人工智能的未来将依赖于先天结构还是后天学习?》


《LeCun、Jeff Dean等大神激辩AGI和深度学习》


2019-08-17 08:006123

评论

发布
暂无评论
发现更多内容

抖音严打虚假宣传滋补膳食内容广告主:必须严格监管信息流广告

石头IT视角

Nginx 的日志

HoneyMoose

java内存模型之happenbefore原则

急需上岸的小谢

5月月更

从这些云原生企业身上,我看到了数字化创新者该有的样子

阿里巴巴云原生

阿里云 云原生 实战案例

网站开发进阶(四十五)浅谈XML与HTML的区别

No Silver Bullet

html xml 5月月更

【建议收藏】Mysql知识干货(mysql八股文)汇总

利志分享

面试 面试题 MySQL 数据库 面试问题 MySQL InnoDB

Hadoop Java api操作hdfs(一)

Emperor_LawD

hadoop 5月月更

OpenYurt 开源之夏开始申请啦

阿里巴巴云原生

阿里云 云原生 开源之夏

百万级电商秒杀架构设计

晨亮

「架构实战营」

模块五作业

HZ

架构实战营 #架构实战营

在线TSV转HTMLTable工具

入门小站

工具

架构训练营-毕业总结

默光

架构训练营5期

Bigdata 作业第九周

Pyel

Nacos源码系列—服务端那些事儿

牧小农

源码 nacos

浅谈Java中的Math.random

工程师日月

java 5月月更

docker可视化管理工具之shipyard

乌龟哥哥

5月月更

kubernetes下的Nginx加Tomcat三部曲之一:极速体验

程序员欣宸

Java tomcat Kubernetes 5月月更

复杂任务中,流程的解耦设计

架构 事件驱动 任务管理 异步设计

Go Web 编程入门:创建动态 HTML 和文本文件

宇宙之一粟

Web Go 语言 5月月更

集成 ShenYu 网关实现 Dubbo 泛化调用

码农大熊

盘古开发框架 Dubbo网关 泛化调用 ShenYu网关

八、高可用之故障隔离

穿过生命散发芬芳

5月月更 高可用设计

面向对象的系统分析

奔向架构师

信息系统 5月月更

JAVA为什么需要泛型?

源字节1号

软件开发 后端开发 小程序开发

目标检测的算法

恒山其若陋兮

5月月更

赫卡忒的眼眸:微光手机“夜视仪”是怎样炼成的?

脑极体

架构实战营总结

晨亮

「架构实战营」

机器学习:真正的底层是什么?

海拥(haiyong.site)

5月月更

linux之man命令

入门小站

在线HTML文本提取URL链接工具

入门小站

工具

函数计算 HTTP 触发器支持异步,解放双手搭建 Web 服务

阿里巴巴云原生

阿里云 云原生 函数计算

python使用 pywin32 模块操作 excel,Python 操作 excel 系列之五

梦想橡皮擦

5月月更

AI走向自我毁灭?DeepMind一年亏损40亿到底意味着什么_AI&大模型_Gary Marcus_InfoQ精选文章