速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

20 年内实现 AGI!李开复与张亚勤共同预测:无人驾驶领头,大模型六波应用潮流随后

  • 2024-06-17
    北京
  • 本文字数:7669 字

    阅读完需:约 25 分钟

大小:3.77M时长:21:57
20年内实现AGI!李开复与张亚勤共同预测:无人驾驶领头,大模型六波应用潮流随后

整理 |华卫


6 月 14 日,零一万物 CEO 李开复和中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,在 2024 北京智源大会由智源研究院理事长黄铁军主持的 Fireside Chat 上,分享了对通用人工智能技术的整体趋势判断,包括大模型的“靠谱”发展路线和应用爆发阶段、具身智能中最有机会的产品可能性以及对 AGI 能力与风险的理性判断。

 

“AI 2.0 时代下,在中国大模型 To C 短期更有机会,国外 To B 和 To C 都有机会。”李开复坦言,零一万物坚决做 To C,不做赔钱的 To B,而是做能赚钱的 To B。并且,他对于近两年备受追捧的人形机器人,提出了一连串深度质疑。

 

“绝大多数应用场景并不需要人形机器人。炒菜机器人应该长得像锅,吸尘器也长得并不像人,没有必要。波士顿动力那种很酷的、跳来跳去的机器人,真的有很多应用场景吗?几个轮子不是更容易移动吗?”

 

张亚勤则在指出当前大模型技术存在三大不足的同时,对无人驾驶的实现前景表示了极大的肯定,“在明年,无人驾驶会成为第一个真正实现具身智能或者物理智能的 AGI。”

 

以下是李开复和张亚勤对话的完整版本,AI 前线在不改变原意的基础进行了删减编辑。

做大模型,科技与工程缺一不可

黄铁军:近期关于大模型的讨论特别热门,可以说大模型是至今为止人工智能发展最成功的一个技术方向。想请问是什么原因使得大模型如此成功?还有哪些欠缺的地方需要进一步发展?

李开复: AI 2.0 是有史以来最伟大的科技革命和平台革命,大模型 Scaling Law 的重要性在这个时代得以凸显——人类能够用更多计算和数据不断增加大模型的智慧,这条被多方验证的路径还在推进中,还远没有触达天花板,这点也让大家非常振奋。

而大模型的智慧来自于接近无损的压缩,这点也非常重要,上世代的人工智能从业者很难想到今天压缩和智能会连接在一起。因为 Scaling Law 过程中不能盲目堆更多的 GPU,所以需要有一个评估我们有没有越做越好的方法。零一万物内部有严谨的方法论,用压缩的理念去评估,让以往漫无目的“炼丹”训模过程变得更系统,也更有科学和数学根据。

大模型正面临着挑战,比方说如果“仅仅用更多算力就能把它往前推动”是主要方向,就会导致只有那些 GPU 资源丰富的公司和国家能够在这方面胜出。但话说回来,我们已经验证了很多国内大模型在部分案例里接近、打平或者偶尔超过了美国的大模型。所以我认为当下需要关注的是算法和工程创新一体化的推进,以及怎么以这种能力避免进入“盲目堆算力推动模型性能提升”的状态。

当然,目前大模型还直面许多其他挑战。就像每个技术刚诞生都会有问题,起初大模型也不知道最近一年发生了什么,如记忆、窗口长度、幻觉问题等。但我们可以看到的是,当全球如此多聪明的大脑涌入这个领域后,大部分问题不能说被完美地解决,但都在逐步被攻克的过程中,所以我对大模型的未来相当乐观。

张亚勤:我讲“三个做对了”的和“三个目前需要改进”的 。

首先,规模定律 Scaling Law 的实现,主要得益于对海量数据的利用以及算力的显著提升。再加上现在的 Diffusion 和 Transformer 架构能够高效地利用算力和数据,使得“飞轮效应”得以正循环。尽管有人质疑 Scaling Law 在 2 到 3 年后是否仍然有效,但我个人认为至少在未来 5 年里,它仍将是产业发展的主要方向。

其次是“Token-Based”统一表述方式。在大模型中,“Token”是一个基本元素。无论文本、语音、图像、视频,还是自动驾驶中的激光雷达信号,甚至生物领域的蛋白质和细胞,最终都可以抽象为一个 Token。Token 之间的训练、学习和生成是核心环节,这与我们大脑中的神经元工作原理相似,无论执行何种任务其基础机制都相同。

最后是通用性,这与 Token 紧密相关。现在的通用性不仅体现在文本处理上,还扩展到了多模态领域,甚至可以生成如蛋白质等复杂结构。此外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有着广泛的应用前景。

以上这三个方面是大模型做对的。

现阶段的主要问题是:第一个,效率较低,特别是大模型的计算效率低下问题与人类大脑的高效性形成了鲜明对比。人类大脑拥有 860 亿个神经元,每个神经元又有数千个突触连接,却只需要 20 瓦的能量,重量还不到三斤;而 GPT4 这个万亿参数模型需要巨大的算力和能源,与人脑相比相差 1000 倍之多。

此外,人脑能够根据不同的情境灵活调用不同区域的神经元,而大模型却每次输入一个问题都要调用和激活几乎大量参数。因此,如何借鉴人类大脑的计算方法,在降低计算耗能、提高效率方面进行探索和创新是一个值得关注的方向。

第二个,大模型目前还未能真正理解物理世界,相关的推理能力、透明性以及开复刚才提到的幻觉等问题都还在深入研究中。一个重要的问题是,即使大模型做得再好,在生成式表述与对真实世界的描绘之间都存在矛盾。因此,我们需要探索如何将生成式的概率大模型与现有的“第一性原理”或真实模型、知识图谱相结合。

目前,虽然已经有了一些尝试,如采用 RAG 技术或进行微调,并取得一定的进展,但我认为这些方法并非根本解决方案。我预测,未来五年内将会出现一个全新的架构,有望取代 Transformer 和 Diffusion 模型。

第三个欠缺的地方是边界效应。现在大模型无法知道“我不知道什么”,这是目前要解决的问题。

黄铁军:刚才开复老师没讲,我想再追问一下,有些人认为大模型是实践、工程,是经验主义做的东西,没有理论基础,说得不好听叫“不靠谱”,不知道你怎么看这个问题?

李开复:我觉得科学和工程缺一不可。如果只做工程,不了解“第一性原理”,没有数学的根据、没法评估不同路径的效果,考虑到高昂的算力成本,这样的摸索肯定是做不出一个好模型的。但如果只是在实验室里雕花,期待有工程人才把自己的论文做成产品,这也是不行的。

零一万物的经验是,每个做 AI、做模型的 Researcher 都要懂 Infrastructure、推理和成本的问题。这样当面对科研问题时,就知道在产品里需要的反应速度有多快,要怎么实现,且做完实验就能确保模型可以得到令人满意的工程结果。训练模型的过程中绝对不只是写 Paper,还要同时考虑怎样系统化、工程化地做数据工程,因为数据的训练、数据的筛选是非常重要的。还有底层的 AI Infrastructure,GPU 这么昂贵,如果把一张当成两张、三张使用,任何公司都会得到好处。所以科技和工程这两方面缺一不可。

大模型应用出现的六个阶段

黄铁军:大家关心 AI 2.0,大模型产业化最大的场景在哪里?移动互联网这么多年,To B、To C 这两个大赛道哪个更有机会?为什么?

李开复:简单来说,在中国 To C 短期更有机会,国外两者都有机会。To C 方面,就像移动互联网、PC 时代里一个新技术、新平台带来新应用,大模型同样如此,这是巨大的机会,但这些应用的出现一定是按部就班的。我认为 AI 2.0 时代会和 PC、移动互联网时代一样。第一个阶段应该是生产力工具,包括信息获取;第二个阶段可能会是娱乐、音乐、游戏,第三个阶段可能会是搜索;再下一个阶段可能会是电商;然后可能会有社交、短视频、O2O 的应用出现。

理由就是刚开始应用要能够赚钱、解决问题,所以第一波潮流会是生产力工具,但越往后,难度越高——高用户量的应用商业模式往往是先堆积用户再找变现模式,所以应用成本一定要很低,试错难度很大、所需要的投资也更多。我认为递进的模式不会有特别大的改变,To C 应用会从生产力工具一步步走向短视频类应用。To C 确实会产生大量用户,但这不是说不能用大模型来做产品,只是在普及顺序上会按照这六个阶段进行。

当然,这个过程中也有挑战,在大模型领域做应用跟 PC、互联网时代不一样,因为推理成本太贵。最近零一万物提出了 TC-PMF 概念(技术成本✖️产品市场契合度),这个概念是指,当你考虑 PMF 时,还要把技术的需求、实现难度和成本考虑进去。

第一,做应用一定要考虑到刚才这六个阶段谁先谁后、什么时候做、提早做。第二,做应用的时候还要综合考虑到当时的技术够不够好,成本是否足够低。所以大模型 To C 应用不像过去移动互联网时代,产品经理一个人就可以做主,它需要做 Infrastructure 和推理引擎的人一起打磨 TC-PMF。这件事难度高,但回报也高,机会也更大。

最后我想讲,在 To C 方面,我不相信技术可以永久领先。事实上技术带来的领先窗口非常短暂,一旦巨头看到你验证了 PMF,他们会有很多方法超越你。一旦验证了 TC-PMF,就要把握时间窗口把品牌打出来,最终胜出的 To C 应用不只需要有技术优势,还需要在时间窗口内打造持续优势,比如品牌优势、社交链、用户数据,让用户不能离开你这个平台。在微信强大的时代里抖音能被做出来,就是因为它抓住了这个时间窗口。

再讲一下 To B 的应用。大模型有可能在 To B 方向上带来更大价值,而且能够比 To C 更快实现,但是 To B 这个领域有几个挑战。第一是大公司、传统公司不是很敢采取颠覆式技术,大公司会习惯每年增长 5%预算,做和去年一样的事情。第二个在中国比较严重,许多大公司没有认识到软件的价值,为软件付费意的意识有待进一步提高。现在有许多大模型公司在竞标时越竞越低,做到最后做一单赔一单,都没有利润。

我们在 AI 1.0 时代曾见过这个现象,现在它在 AI 2.0 时代又重现了。这种心态导致部分大公司只愿支付很低的价格,大模型公司也只能给出折中的方案,达到惊艳效果的寥寥无几。零一万物坚决做 To C,不做赔钱的 To B,而是做能赚钱的 To B。所以零一万物在 To B 方面精挑细选,找那种公司上下都愿意拥抱新概念的公司,也为它们设计了 RAG 知识检索、专有云、微调等方案,在国内外都有尝试。

无论 To C 还是 To B,API 都很重要,最近国内很多模型降价了,零一万物也推出了接入国际 SOTA 成绩 Yi-Large 大模型的 API。这个 API 背后的模型能力大概接近 GPT-4o,但价格是 GPT-4 的四分之一,我相信这可以帮助更多公司或者创业者达到所谓的 TC-PMF。

黄铁军:亚勤,刚才关于 To B 的观点,大家还有一个非常关心的问题,大模型产业的最大场景会在哪里?To B、To C 在什么地方能够落地发挥作用?

张亚勤:在应用和服务层面,先面向消费者(To C)再面向企业(To B)。To B 的周期相对较长,而 To C 的应用产品则可以迅速推出,这与过去的 PC 互联网和移动互联网的发展路径基本一致。在基础设施层,目前真正盈利的主要集中在 To B 领域,特别是在芯片、硬件、服务器等,像英伟达、AMD 等芯片制造商,以及服务器、HBM 存储、InfiniBand 和 NVLink 等相关技术的提供商,目前是盈利最多的。

关于 AI 路径,我在过去十年中一直强调三个关键领域:首先是信息智能,其次是物理智能(现在流行的术语是具身智能),最后是生物智能。在具身智能阶段,To B 的应用可能会比 To C 更快落地。然而,在生物智能阶段,情况可能相反,To C 的应用可能会先于 To B 出现。尽管每个领域的具体情况可能有所不同,但总体来看,无论 To C 还是 To B,都将存在开源模型、商业闭源模型、基础大模型以及垂直行业模型和边缘模型。

无人驾驶明年首实现具身智能

人形机器人没有必要?

黄铁军:今年具身智能特别热,关注度特别高。讲到具身,通常像机器人,人形机器人、轮式机器人是一大类,第二大类是车,也是驾驶场景上的具身智能。还有无人机,在空中飞将来也是一种形态。甚至于大家可以想象出更多的身体形态和具身智能可能性。我想请问,在具身智能这么多可能性里面,到底是热门的人形机器人会先有机会,还是已经有相当多积累的自动驾驶会有机会?

张亚勤:从百度 Apollo 开始,有七八年时间我一直在从事无人驾驶研究,无人驾驶 L4+是具身智能第一个最大的应用,也会是第一次实现新图灵测试的应用.无人驾驶本身就是一个开车的特殊机器人,最近也有很多好消息,它的安全性已经比人类驾驶要高至少 10 倍,不管是 Waymo 在旧金山的结果还是百度 Apollo 在武汉大范围的商业运营。最早在 Apollo 开始的时候,我就要求自动驾驶安全性一定要比人类驾驶高出 10 倍。

尽管安全性很好,当前无人驾驶仍存在一些挑战,就是它虽然开得安全但不够老练,不够老司机,驾驶太守规矩了,不会超速或压线。无人驾驶要变成主流,要通过新图灵测试的话,需要是好司机,也需要是老司机。我认为,无人驾驶在明年会成为第一个真正实现具身智能或者物理智能的 AGI。

另外,大模型的推出帮助无人驾驶解决了很多原来的问题,比如长尾和数据生成问题。百度已经积累了 1 亿公里的驾驶数据,虽然数据已经很多但仍然不够,生成式人工智能可以生成很多数据。大模型的应用使得无人驾驶系统能够实现端到端的智能化,同时也意味着无人驾驶会有更高的智能性,还将加速其在实际场景中的落地应用。

李开复:我同意亚勤的分析。在创新工场,我们也投了大概 6 家左右的无人驾驶公司,已经跑出至少 3 家独角兽公司。现在无人驾驶面临的巨大机会是终于可以落地了。在 L2、L3 阶段,包含城市自动小巴等场景,无人驾驶都可以真正创造价值,这是很让人欣慰的。到 L4、L5 阶段,要无限制地开到开放场景,全球都面临着挑战。我在美国时看到了 Waymo 进展是不错的,依然在往前推进。特斯拉推出的 FSD,虽然不是完全的大模型,但用了类似 end to end(端到端)的概念。

至于不用 FSD 方案能产生多少产业价值,我希望我们投的 5、6 家公司和亚勤的前公司都能够证明,中国能做得很好,也许这就是很大的市场。我认为 FSD 会带来新的机会,把大模型的概念放到无人驾驶里,是我非常期待能够在下一阶段看到的事。但是这需要巨大的投资,不见得适合初创公司来做。

讲到具身智能,跟亚勤说的一样,它是物理世界跟 AI 的结合,这是很重要的。但我也必须说,大模型是非常适合虚拟世界的,在金融公司的后台、客服等场景很快就可以落地产生价值。如果你的需求是软件,直接对接大模型就好了。一旦大模型接入物理世界,就需要面临安全、机器、机械、故障等各种问题,难度会大很多倍。

从创业者角度来说,虽然现在具身智能一时比较热,有一些创业者涌入了,但对于大部分创业者来说,如果希望短期落地产生价值、能赚钱,肯定还是做虚拟世界要远远容易很多。具身智能可以很好地结合大模型多模态能力,而且一旦具身后就可以产生数据,形成数据飞轮闭环,有很大的想象空间,但短期要做好难度很大。

具身智能肯定要走很漫长的道路,而且对于人形机器人我有一些特别的看法。绝大多数应用场景并不需要人形机器人,炒菜机器人应该长得像锅,吸尘器也长得并不像人,没有必要。像是波士顿动力那种很酷的、跳来跳去的机器人,真的会有很多应用场景吗?绝大多数场景几个轮子不是更容易移动吗?很多科学家和创业者都是从小热爱科技,希望能复制一个人,这无可厚非。但是如果你很简单地问 VC,给出的恐怕是更务实更理性的判断。 

张亚勤:我补充一点,最近经常有人问我,通用人工智能到底什么时候可以实现?我比较乐观,我认为 15-20 年内可以实现,并通过新图灵测试。

0 至 5 年内,在信息智能领域,对语言、图像、声音和视频的理解、生成等方面通过新图灵测试。0 至 10 年内,在物理智能领域,实现大模型在物理环境中的理解与操作能力,通过新图灵测试。0 至 20 年内,在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体连结的生物智能,通过图灵测试。

要是三年前问我这个问题,我可能会说 50 年实现 AGI,这几年随着大模型的发展,我认为除以 2,20 年能实现。

AGI 未必能全方位超越人类

黄铁军:通用人工智能包括今天的大模型或者未来几年能实现的,在信息空间里大模型认知能力通常的评测水平,比如说到了大学、博士、专家、学者,甚至于科学家,这是一个通用性,不管什么学科都可以做,这是一种理解。

但刚才亚勤讲到,有了身体进入物理世界,甚至进入物理世界的具身智能,跟我们今天讲的通用人工智能又有所不同。也就是大家讲的 AGI。GAI、具有通用性的人工智能和 AI 领域说了这么多年的 AGI 是不一样的。AGI 是要超越人类的,AGI 是有自我意识的,不仅仅是智能水平超过了人类。你们刚才谈到的是指这样的 AGI 吗,还是只是说前面一种?

李开复:AGI 的定义是因人而异的。如果把 AGI 定义为能做人所能做的一切事情,那么我今天没有办法定义,因为还有太多未知的东西没有被解。但是这种定义只把人当作金标准,似乎就是问车什么时候能跟人跑的一样快,但是车在很多场景已经比人跑得快很多了,只是有些场景没法胜任。我个人会说:只要 Scaling Law 继续,只要 AI 一年比一年更聪明,它会多做比如 5 倍的事情,IQ 会提升 20 个点。

但是,它聪明的方向,能做的事情也许是人从来都不能做的,不见要能做人做的每件事。因为我是做投资和创业的,我想看到的是巨大的商业价值。从这个角度来说,我们不会太纠结是不是能够百分之一百做到人类能做的事。如果世界上有一万件事情,AI 在 9000 件上做得比人好,有 1000 件人做得比较好,这样也挺好的,要给人留一点空间嘛。

谈到虚拟跟物理世界,我还想再补充一点。在虚拟世界里,Agent 还是非常重要的,因为人的 Intelligence 不只是回答问题,是要知道“怎么把事情做出来”。而且如果是谈创造商业价值,Agent 帮你把东西买了,帮你把事情解决了,这个是有很大的商业价值,也是贴近 AGI 的重要一步。

张亚勤:我刚才讲的 20 年实现 AGI,不包括拥有意识或情感。我对 AGI 的定义有三点,第一是要有巨大的能力,能在大部分的任务要比人类强,而不是所有任务均超越人类。第二,它必须是通用的,过去每个任务都要用不同的模型,但是 AGI 要有一个通用的大底座,当然可以有小的垂直模型,但它本身具有通用性。

第三是不断升级、学习、进化,就像人类一样。我不认为现在的 Scaling Law 或者我们现在做的研究会让 AI 产生意识,并且我也不认为我们应该从事这方面的研究。我们还是要解决真正的问题,把人工智能作为我们的工具、我们的延伸、我们的 Agent,而不是另外一种物种。

黄铁军:从工程、应用、商业所有的角度,可能没人想去做一个超越人类的、有自我意识的 AGI。但是最近 OpenAI 发生的事情,从去年年底开始,IIya 和 Altman 的争论观点就是:你不想做但是它们可能就要出来了,出来之后我们就面临着失控的巨大风险。你们认为这种风险存在还是不存在?

李开复:我觉得存在的,但概率不会很高。如果我们越来越依赖 Reward model,完全让 AI 自己找路径的话,发生的概率或许会增高。当然,当前大模型的训练方法还不至于让大家担忧过度。不管在哪个时代,我认为技术是中性的,每个科技时代有技术带来的“电车难题”,最后人类都用了有效的方法解决了。

所以,我对此是持谨慎乐观的态度,短期最担忧是坏人用它去做坏事。中长期看,我仍然建议尝试用“以子之矛攻子之盾”——用更好的技术解决技术带来的挑战,让“AI for Good”,真正造福全人类。

张亚勤:随着 AI 的能力不断扩大,风险也在不断扩大,所以现在考虑到未来的风险是很重要的。我不担心所谓的 AGI 会出现意识,会掌控人类。我担心的是如果现在不重视 AI 的治理,当 AGI 达到一定的能力并被大规模部署,那么可能会有失控风险。目前 AI 仍存在可解释性问题,未来机器人数量可能会比人要多,那么当大模型被用到基础物理设施、金融系统,包括国家安全,军事系统等方面,就可能会有失控的风险。

因此我主张一定要现在开始把 AI 治理重视起来。对于技术发展我永远持乐观态度,我认为我们人类有两种智慧,一种是发明技术的智慧,一种是引导技术走向的智慧。我认为我们会达到平衡,但前提是现在要采取行动。


2024-06-17 15:184680

评论

发布
暂无评论
发现更多内容

kafka也没那么难--kafka的安装与简单使用

爱好编程进阶

程序员 后端开发

架构实战营之毕业总结

IT屠狗辈

架构实战营

人工智能超大规模预训练模型浅谈

百度Geek说

php基础语法

爱好编程进阶

Java 程序员 后端开发

Java语言程序设计与数据结构(基础篇)课后练习题 第十三章

爱好编程进阶

Java 程序员 后端开发

Linux编程之权限系统与工具使用(二)

爱好编程进阶

Java 程序员 后端开发

DDD领域驱动设计实战-分层架构及代码目录结构

爱好编程进阶

Java 程序员 后端开发

Java集合源码解析-ConcurrentHashMap(JDK8)

爱好编程进阶

Java 程序员 后端开发

实力印证!青藤入选第一批“网络安全能力评价工作组”成员单位

青藤云安全

一场会带来啥改变?三翼鸟引领行业进入有脑时代

脑极体

Redis(十二)

爱好编程进阶

Java 程序员 后端开发

未来以体验为中心的数字化战略前景 已经变得愈发明朗

易观分析

精细运营 渠道融合

BIO,NIO,AIO的区别

爱好编程进阶

Java 程序员

2021年Java春招高级面试指南(1到5年Java面试者必备)

爱好编程进阶

Java 程序员 后端开发

重磅推荐-深度学习之ResNet家族

AIWeker

人工智能 深度学习 5月月更 resnet

MySQL数据库——事务和索引

爱好编程进阶

Java 程序员 后端开发

深度学习|AI芯片:上游产业率先爆发

Finovy Cloud

深度学习 gpu GPU服务器

10个经典又容易被人疏忽的JVM面试题

爱好编程进阶

Java 程序员 后端开发

linux中route命令超详细用法(十五万字)

爱好编程进阶

Java 程序员 后端开发

Maven中的pom

爱好编程进阶

Java 程序员 后端开发

TiDB Cloud GA,助力全球企业在云上构建新一代云原生应用

PingCAP

Java多线程 高频面试题

爱好编程进阶

Java 程序员 后端开发

LeetCode 剑指 Offer II 排序 专题总结

爱好编程进阶

Java 程序员 后端开发

Java并发编程—实现线程的方式只有一种

爱好编程进阶

Java 程序员 后端开发

Java程序员面试中最容易答错的8道面试题,你中坑了吗?

爱好编程进阶

程序员 后端开发

GitHub 和 Gitee 开源免费 10 个超赞后台管理面板,看完惊呆了!

爱好编程进阶

Java 程序员 后端开发

Hibernate多对多的关系映射,详解(代码

爱好编程进阶

Java 程序员 后端开发

Java 专项练习【11- 20】

爱好编程进阶

Java 程序员 后端开发

Java实现双向链表的基本操作

爱好编程进阶

程序员 后端开发

TiDB 6.0 新特性解读 | Collation 规则

TiDB 社区干货传送门

在虚拟机上搭建单机k8s环境

红莲疾风

20年内实现AGI!李开复与张亚勤共同预测:无人驾驶领头,大模型六波应用潮流随后_生成式 AI_华卫_InfoQ精选文章