写点什么

AICon 上海站精彩回顾,从大模型变革之路到高效“炼丹”指南,超 60 位大模型先锋输出最前沿干货!| 附 PPT 下载

  • 2024-08-20
    北京
  • 本文字数:3180 字

    阅读完需:约 10 分钟

大小:1.60M时长:09:19
AICon 上海站精彩回顾,从大模型变革之路到高效“炼丹”指南,超 60 位大模型先锋输出最前沿干货!| 附PPT下载

8 月 18 日 -19 日,由极客邦旗下 InfoQ 中国倾力打造的 AICon 全球人工智能开发与应用大会 2024(上海站)圆满举办,盛况空前!与会嘉宾阵容强大,既有行业领军人物深入探讨大模型带来的变革及其深远影响,也有技术大咖剖析最新的落地思考和实践案例,到场的每一位观众都受益匪浅。


大会现场, 60 多位来自字节跳动、华为、阿里巴巴、微软亚洲研究院、智源研究院、上海人工智能实验室、蔚来汽车、小红书、零一万物等顶尖企业与研究机构的资深专家汇聚一堂,全方位剖析大模型的训练与推理机制、多模态融合技术、智能体 (Agent) 的前沿进展、检索增强生成 (RAG) 策略以及端侧人工智能应用的最新动态,并带来 AI 和大型模型在各种落地场景下的应用案例和最佳实践分享,帮助与会者提升技术视野、获得有价值的实践指导。


在本次大会的开幕环节,我们荣幸地邀请到了上海市邮政管理局党组书记、局长冯力虎为大会带来开场致辞。冯力虎表示,上海是开放之都,鼓励和欢迎与前沿科技相关的探讨,希望本次 AICon 大会能够成为一个新的起点,激发更多的创新火花。



当前 AIGC 大模型主要是文字、语音、图片等模态为主,在内容创作、辅助设计、知识内容创作辅助设计问答等场景不断出现创新应用。以供应链和物流为核心的运营和决策优化环节中,如何能有效利用大模型能力及其背后的技术?顺丰科技副总裁唐恺在题为《揭秘顺丰物流决策大模型》的主题演讲中,深入介绍了顺丰在物流领域的技术创新与应用。



唐恺介绍,供应链运营是一个专业程度很高且非常严谨的领域,但当前大模型的一些缺点限制了其发挥。为此,顺丰结合大模型和传统小模型来构建供应链业务专家 + 技术专家多智能体,并通过 RAG 召回供应链知识库和数据检索来改善幻觉,同时利用多模态信息进一步提升传统领域模型效果,通过物流决策模型突破模态限制、直接作用于核心决策问题。


随后,上海市邮政管理局党组书记、局长冯力虎,顺丰集团副总裁龚威、顺丰科技副总裁唐恺、零一万物联合创始人祁瑞峰、智谱 AI 副总裁吴玮杰、华为云盘古大模型 CTO 李寅、浙江大学管理学院副院长杨翼,以及极客邦科技创始人兼 CEO 霍太稳,共同登台联合发布顺丰物流决策大模型,并一齐见证这一物流行业创新的重要时刻。



在接下来的主题演讲中,蔚来创始人、董事长、CEO 李斌深入介绍了蔚来近年在智能电动汽车和 AI 方面的思考与实践。李斌表示,“AI 将成为智能电动汽车企业的核心基础能力,车是大模型最佳的落地场景。”据介绍,在蔚来智能电动汽车的技术全栈中,AI 和所有的技术栈都有交集。其中, 智能驾驶无疑是汽车 AI 综合能力的反映,而智能驾驶的技术发展史就是算法空间理解和处理能力的进化史,因此蔚来决定直接走向基于视频的端到端世界模型,这一路径的信息损耗最小。李斌表示,蔚来的智能驾驶世界模型 NWM(NIO World Model)能在 0.1 秒内基于全量数据模拟出 216 种可能轨迹,评估后找出最优解。从 NWM 的技术角度来讲,其本身就是一个多元自回归时空生成模型。



今年内,蔚来将利用 NWM 实现端到端上车。此外,李斌谈到 AI 在车上的另一个重要应用:智能座舱。他认为,车在未来会成为人的情感伙伴,今年蔚来的 NOMI GPT 大模型全量上线,目前具备 2000 项技能,累计用户聊天互动次数达 15680260 次。李斌在演讲最后称,“一个成功的智能电动汽车公司,一定是一家成功的 AI 公司。”


英特尔院士、大数据技术全球 CTO 戴金权在题为《大模型的异构计算和加速》的演讲中,分享了英特尔过去一两年在大模型的异构计算和加速方面所做的工作。戴金权指出,大模型在做推理和训练的过程中,存在内存带宽、计算、显存大小和分布式计算多方面的瓶颈。随着大模型被部署在客户端、边缘端、服务器等不同的系统,除低比特计算的方法外,推理算法的各种优化都能够更好地提升其在 XPU 上的计算效率。他表示,高效的异构计算是生成式 AI 发展的核心能力之一。



如何高效地训练大模型、做大模型的推理优化?现场,面壁智能联合创始人兼 CEO 李大海指出, 2018 年以来,行业内不断见证大模型规模法则(Scaling Law),工业界也在尽可能地保证摩尔定律有效,持续改进芯片制造工艺、提升芯片制程,核心是提升芯片电路密度、实现计算设备小型化。“制程”不断提高的事情同样发生在大模型领域,根据过去几年在大模型领域的深耕和实践,对大模型的发展趋势进行观察总结,面壁智能提出了大模型时代的面壁定律:大模型的知识密度不断提升,平均每 8 个月提升一倍。”其中知识密度 = 模型能力 / (参与计算的)模型参数。



李大海表示,大模型数据驱动技术方向大致确定,而模型架构 - 算法 - 数据技术方案仍高速迭代,需持续改进模型制程,极致提升知识密度。据他观察,在过去四年,大模型的知识密度平均每 8 个月就提高一倍,相比摩尔定律更加高效,这也是面壁做端侧模型的原因。芯片制程带来终端算力持续增强,模型制程带来模型知识密度持续增强,两者交汇揭示了端侧智能的巨大潜力。此外,李大海认为,更高知识密度带来更高效模型,要构建模型风洞,在小模型高效寻找最优数据和超参配置并外推至大模型,让模型成长摆脱“炼丹”窘境。


最后,字节跳动研究科学家、豆包大模型视觉基础研究团队负责人冯佳时分享了字节跳动基于 LLM 的视频生成和图像理解实践。冯佳时表示,无论是在自动驾驶还是具身智能上,业内往往把大语言模型视作机器人大脑,并希望其在做推理时能够参考周围环境的信息,能够具有一定的定位能力,与物理环境进行可靠的交互。为此,字节在 PixelLM 方案中引入多个 token 来完成多个物体的分割,并将分割模型 SAM 替换成轻量的 MLP,计算量比之前的模型 LISA 减少一半,分割精度也显著提升。



此外,冯佳时指出,目前的视频生成模型在交互上有很多不便之处,存在一致性、创作界面与可控性、视频表现力等方面的问题。字节在其 StoryDiffusion 模型提出一致性模块和运动生成模块两个关键技术,来提升角色一致性和表现力。


除了 Keynote 主题演讲之外,本次大会还策划了多元化的专题论坛内容,包括大模型训练以及推理加速、RAG 落地应用与探索、大模型产品应用及构建、多模态大语言模型的前沿应用与创新、大模型与企业工具集成的提效实践、大模型产学研结合探索、端侧模型落地探索等十多个高质量话题专场。



大会现场气氛异常热烈,不仅吸引了大量听众的积极参与,还赢得了在场参会人员的一致好评。许多与会者纷纷表示,这次大会紧密围绕当下的 AI 和大模型热点话题,从多个角度进行了深入的技术架构专业解读和商业化实践分享,为其日常工作和探索带来了宝贵的启示和具有实际应用价值的参考,有助于他们在各自领域内更好地推动 AI 技术的创新和发展。



AICon 上海的圆满举办,离不开赞助商们贡献的力量。感谢英特尔、亚马逊云科技、Google Cloud、矩阵起源、百道数据、Optiver、数势科技、未来智能、UCloud 优刻得、钛动科技、零一万物、快递 100、快手、昇腾对本届大会的倾情赞助以及蔚来汽车为大会展区带来的特别策划。在大家的共同助力下,我们得以持续推动技术的传播与发展,为行业创新注入不竭源泉。


经统计,AICon 上海站现场听众累计超过 1000 人次。我们深感荣幸与欣慰,衷心感谢每一位参与者的鼎力支持与不断鼓励。正是因为有了大家的热情参与和积极贡献,我们才能坚定不移地追求目标,致力于成为技术传播领域的佼佼者。我们将持续不断地提升内容的质量,致力于打造更加优质、更具包容性的交流平台,让每一个人都能在这里找到启发和灵感,一齐推动技术领域的创新与突破,为未来的科技进步贡献力量。


大会 PPT 获取通道已开启,关注 AI 前线 公众号,后台回复“PPT”,即可获取 PPT 下载地址!(由于讲师所在企业限制,部分 PPT 仍在审查或不对外公布,详情见大会官网日程) >>>


至此,今年 InfoQ 中国已圆满落幕 5 场技术盛会,随后还将于 10 月 18 -19 日举办 QCon 上海站。如您感兴趣,可点击官网查看更多详情。


期待下一场大会再见!



2024-08-20 20:008240

评论 1 条评论

发布
用户头像
hi
2024-08-22 16:18 · 广东
回复
没有更多了
AICon 上海站精彩回顾,从大模型变革之路到高效“炼丹”指南,超 60 位大模型先锋输出最前沿干货!| 附PPT下载_生成式 AI_华卫_InfoQ精选文章