内容介绍

近期,关于大语言模型(LLM)在 Scaling Law 方面的瓶颈引发热议。据报道,OpenAI 新一代模型在性能提升上的表现未达预期,尤其在编程任务中的改进幅度有限。这是否意味着大模型的性能提升已进入收益递减阶段?国内外技术条件是否存在差异?

而在模型规模不断扩大的今天,“量变引起质变”的关键是什么?高质量训练数据的稀缺性、计算资源的限制会对模型的进一步突破产生多大影响?我们是否在追求极限的过程中忽视了现有技术的优化价值?

此外,大模型项目的“成功”又该如何定义?从业务收益到用户体验再到行业发展的长期贡献,不同视角下,评估标准各不相同。在有限资源下,如何平衡成本与收益,最大化模型的经济价值?

本期 InfoQ《极客有约》,我们邀请了来自百度、京东和中科大的三位专家,共同探讨这些关键问题。Scaling Law 是否真的“撞墙”?未来 LLM 该如何破局?一起在直播中探讨!

嘉宾阵容

  • 颜林 百度 / 主任架构师,信息流推荐架构负责人
  • 张泽华 / 京东 算法总监
  • 王皓 / 中国科学技术大学 特任副研究员
  • 郭威 / 华为新加坡研究所高级工程师

大会推荐:

就在 12 月 13 日 -14 日, AICon 全球人工智能开发与应用大会 将汇聚 70+ 位 AI 及技术领域的专家,深入探讨大模型与推理、AI Agent、多模态、具身智能等前沿话题。此外,还有丰富的圆桌论坛以及展区活动,满足你对大模型实践的好奇与想象。快扫码咨询了解详情,别错过这次绝佳的学习与交流机会!

Scaling Law,撞墙了吗?|InfoQ 《极客有约》

评论

发布
暂无评论