
开门见山,百度又搞新动作了!
距离文心大模型 4.5/X1 发布才一个多月,百度就在 4 月 25 日的“Create 2025 百度 AI 开发者”大会上,又又又发布了两款新模型——文心大模型 4.5 Turbo、文心大模型 X1 Turbo。一个月左右连发四款大模型,这是卷王登场啊!
官方给的基准评测数据是,文心 4.5 Turbo 高效继承文心 4.5 的文本和多模态能力,同时显著降低训练和推理成本,多模态能力与 GPT 4.1 持平、优于 GPT 4o,文本能力与 DeepSeek V3 最新版持平,优于 GPT 4.5、GPT 4.1、GPT 4o。

文心 4.5 Turbo- 多模态
同时,深度思考模型文心 X1 Turbo 整体效果领先 DeepSeek R1、V3 最新版。

文心 X1 Turbo
作为文心一言的深度体验者,我对新发布的两款大模型充满好奇——它们是否真如宣传般强大?还是存在未被提及的短板?
毕竟当前全球 AI 产业正经历从“技术演示”到“商业落地”的关键转型期。OpenAI 的 GPT 系列、Anthropic 的 Claude 等国际巨头持续迭代,而国内百度、阿里、华为等企业也在加速布局。在这场竞赛中,实用性能和成本效益已成为新的竞争焦点。
因此,本文将基于深入实测和技术分析,全面剖析百度新一代大模型的核心竞争力。笔者将围绕三个核心问题展开,带你一探究竟(附案例测评):
文心 4.5 Turbo 和 X1 Turbo 是什么,能做什么?
两款大模型背后的核心技术是什么?
百度在大模型的布局策略和未来规划是怎样的?
进入实用主义时代:实测文心 4.5 Turbo 和 X1 Turbo 能做什么?
对于新发布的两个模型,我们先来看文心大模型 4.5 Turbo。
其技术亮点之一就是多模态大模型,实现了文本、图像和视频的混合训练。针对不同模态数据在结构、规模、知识密度上的差异,通过多模态异构专家建模、自适应分辨率视觉编码、时空重排列的三维旋转位置编码、自适应模态感知损失计算等技术,大幅提升跨模态学习效率和多模态融合效果,学习效率提高近 2 倍,多模态理解效果提升超过 30%。
说得这么好,直接上实操。笔者测了 2 个典型的案例,分别从逻辑推理、创作能力、视觉理解等角度来看一下效果。
案例一:逻辑推理与创作能力
笔者在文心一言上提交了一个任务,即「⼈到 30 岁时,心态会产生⼀些变化,以“看山还是山”为题,写⼀篇符合 30 岁⼈生感悟的文章」,仅 30 秒就输出一份 1000 多字的内容。
实测内容:
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
实测结果: 文章完整性高、结构清晰(总-分-总)、语⾔有深度,并且语句优美、有细节。内容深度远超普通 AI,能够让笔者产生共鸣,例如这一段“在经历了迷茫与挣扎后,三十岁的我们,终于在岁月的沉淀中迎来了心态的升华……我们不再执着于将山定义为某种特定的模样,而是学会了接纳它的全部。”

笔者认为,文心 4.5 Turbo 的文本生成 / 创造能力或许已达到商用级别,逻辑连贯性、情感表达优于 GPT 4.1。
案例二:视频内容理解与续写
上面的任务还是太简单了,开始上难度。
笔者察觉,自步入三十岁门槛之后,每日的生活轨迹便局限于公司与住所的两点一线之间,就好像电影《楚门的世界》一样,仿佛一切均已预先编排。为此,笔者上传了一段时长 57 秒的《楚门的世界》经典结尾片段,并抛出一个创作任务——「根据这部电影之前的情节,续写结尾,要求深刻、 有创意、出⼈意料且合情合理」。
实测内容:
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
实测结果: 文心 4.5Turbo 展现了出色跨模态信息融合与深度关联能力,能结合视觉与文本信息进行创作。
例如能准确识别视频中的关键隐喻元素(如人造天空、导演控制室),续写内容在保持原作黑色幽默风格的同时,提出合理的情节发展(笔者认为续写结局虽非惊艳,但合理)。这种水平的视频理解能力,或许已能满足短视频平台 70% 以上的自动化内容生产需求。
基于前述两个案例的测评分析,笔者对文心大模型的技术能力形成了更为明确的认知框架。在此基础上,现将测评视角转向另一款新模型——文心大模型 X1 Turbo。
基于文心 4.5 Turbo,X1 升级到 X1 Turbo,性能提升的同时,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强。技术亮点之一就是打造了“数据挖掘与合成 - 数据分析与评估 - 模型能力反馈”的数据建设闭环,为模型训练源源不断地生产知识密度高、数据多样、领域覆盖广的大规模数据,同时,数据建设流程具备良好的可扩展性,可轻松迁移到全新的数据类型,实现快速、高效的数据生产。
按照惯例,笔者也测了 2 个典型的案例,分别从深度思考和多工具调用角度来看一下效果。
案例三:深度思考与锐评能力
今年五一假期马上来临,笔者在文心一言上输入「请锐评下五一期间各大景区人从众的现象」问题,仅仅 30 秒就给出了答案。
实测内容:
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
实测结果:
从现象背后的供需失衡、矛盾凸显带来的双重挑战、破局之道 3 个维度进行锐评。并且还给出了结论:五一景区“人从众”现象,既是旅游市场复苏的喜讯,也是行业转型的警钟。通过供需两端协同发力,制度与技术双轮驱动,才能让旅游业从“流量狂欢”走向“质量发展”。
这种让“流量思维”→“留量思维”的解题之道,具备一定哲理性。体现了 X1 Turbo 的思维链更接近人类专家,能结合社会背景进行辩证分析。
案例四:多工具调用与图表绘制
笔者又输入一个旅游攻略问题,即「五一期间我计划带 60 岁的⽗⺟去旅游,请查询去年五一假期北京周边⼩众旅游景点的游客体验评价和游客数量,以表格形式呈现,并为我规划一个三天两晚的旅游攻略,要求专业、细致」。
实测内容:
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
实测结果: 输出的内容详细,先是通过深度搜索、图表绘制能力,自动生成《2024 年五一假期北京周边小众景点游客数据及体验评价》表格;再是调用百度地图 API 等来获取实时交通信息,给出一份详细的三天两晚旅游攻略,从几点出发、乘坐什么交通工具、景点怎么拍照,再到推荐美食、酒店等细节都有。特别考虑到老年人需求,攻略避免长时间步行。

通过该测评结果来看,查询信息快和准,整个流程耗时不到 2 分钟,较人工规划效率提升 20 倍以上。这种端到端任务解决能力在企业服务市场具有重要商业价值。
目前来看,文心 4.5 Turbo 适用场景包括多模态创作(图文生成、视频脚本等),长文本处理(报告撰写、小说续写等),低成本企业部署(客服、内容审核等)。文心 X1 Turbo 适用场景是深度分析(行业报告、政策解读等),复杂任务(数据查询 + 图表生成等),工具联动(自动编程、科研辅助等)……
笔者根据实测建议:对创意要求高优先用 4.5Turbo,需要逻辑推理 + 工具调用优先选 X1 Turbo。
核心技术解析:为何性能提升,价格下降?
除了放出新模型,百度这次在模型的实现方法上也透露了更多技术细节。毕竟文心 4.5 Turbo 和 X1Turbo 的高效表现,离不开在模型架构、训练方法、数据优化等核心能力上的突破。
具体到技术亮点上,文心 4.5Turbo 和 X1Turbo 的关键技术包括:
一是后训练方面,研制了自反馈增强的技术框架,基于大模型自身的生成和评估反馈能力,实现了“训练-生成-反馈-增强”的模型迭代闭环,不仅解决了大模型对齐过程中数据生产难度大、成本高、速度慢等问题,而且显著降低了模型幻觉,提升了模型理解和处理复杂任务的效果。
在训练阶段,研制了融合偏好学习的强化学习技术,通过多元统一奖励机制,提升了对结果质量判别的准确率,通过离线偏好学习和在线强化学习统一优化,进一步提升了数据利用效率和训练稳定性,并增强了模型对高质量结果的感知。得益于偏好信号与奖励信号的融合运用,模型的理解、生成、逻辑推理和记忆等能力得以全面提升。
二是在深度思考方面,突破了仅基于思维链优化的范式,在思考路径中结合工具调用,构建了融合思考和行动的复合思维链,模型解决问题能力得到显著提升。同时,结合多元统一的奖励机制,实现了长距离思维和行动链的端到端优化,显著提升了跨领域解决问题的能力。
三是在数据方面,针对特定领域的数据稀缺问题,研制了原理驱动、过程评估与结果校验的数据合成技术;针对高价值、专业深度知识数据稀缺问题,研制了知识点驱动的大规模稀缺数据挖掘技术等等。
多模态数据方面,针对不同模态数据割裂、跨模态语义关联难度大等问题,提出了融合语义对齐的多模态平行数据构建、融合视觉知识的描述生成等技术,大幅提升不同模态数据的对齐精度和深度语义关联,增强多模态理解能力。
据了解,两款新大模型背后的核心技术是文心和飞桨联合优化,既包括框架-模型的联合优化,也包括框架-算力的联合优化。既有提升训练性能的创新,也有提升推理吞吐的创新。
例如在训练方面,文心多模态统一的掩码注意力加速,就是利用飞桨已有的块状掩码注意力加速技术,显著降低不同模态混合计算注意力时的掩码构建和计算开销,大幅提升训练性能;推理方面,多模态流式分块预填充机制,减少首 token 耗时,同时减少推理计算的显存峰值,提升推理批次大小,提升吞吐性能。综合运用这些联合优化技术,文心 4.5Turbo 训练吞吐是文心 4.5 的 5.4 倍,推理吞吐达到 8 倍。
飞桨框架 3.0 具备动静统一、训推一体的技术特色,并在自动并行、神经网络编译器、高阶自动微分等方面创新突破,为大模型时代的技术创新与产业应用提供强有力的支撑,为开发者打造了一站式、高性能的深度学习开发体验。
官方数据显示,动静统一自动并行,使得大模型分布式训练代码减少 80%;大模型训推一体,帮助强化学习训练提速 114%;科学计算高阶微分,微分方程求解速度比 PyTorch 快 115%;神经网络编译器,提升框架通用性能,模型端到端训练速度提升 27%;异构多芯适配,飞桨已适配国内外 60 多个系列芯片,加速软硬协同优化。
据悉,飞桨和文心的开发者数量已经超过了 2185 万,服务超过 67 万家企业,创建的模型达到 110 万。

性能提升的同时,文心大模型的成本与价格在持续下降。
百度基于在芯片层、框架层、模型层和应用层的全栈自研布局,所以在模型 API 价格上体现出了优势——文心大模型 4.5 Turbo 每百万 token 的输入价格仅为 0.8 元,仅为 DeepSeek-V3 的 40%。文心大模型 X1 Turbo,输入价格仅为每千 token 1 元,仅为 DeepSeek-R1 的 25%。

百度创始人李彦宏认为,当前开发者做 AI 应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
加速大模型布局,坚决投入下一代
2025 年,百度还将迎来“大模型之年”。有媒体称,百度将在 6 月 30 日正式开源文心大模型,预计今年下半年,还将发布文心大模型 5.0。
透过百度过去、现在和未来在大模型上的动作与规划,我们来剖析其在大模型上的策略。
时间拉回到 2019 年 3 月,百度发布了文心大模型 1.0,成为国内最早布局大模型的企业之一。彼时,全球 AI 行业正处于 BERT/GPT-2 时代,而国内大模型的发展仍处于早期阶段:
国外 OpenAI 的 GPT-2(2019 年 2 月发布)和 Google 的 BERT(2018 年)是主流,但中文能力有限;国内除百度外,阿里、腾讯等巨头尚未大规模投入大模型,创业公司如澜舟科技、智谱 AI 等仍在技术积累期。
2020—2022 年,文心一言开始迭代加速(2.0-3.0 版本),布局多模态与行业落地。这一时期,文心大模型从纯文本向多模态、场景化演进,并逐步开放商用。技术上从通用模型走向“通用 + 垂直”并行,解决行业痛点(如医疗问答、金融报告生成)。生态上通过百度飞桨(PaddlePaddle)平台吸引开发者,构建 AI 应用生态。
彼时,国内大模型进入爆发期,例如阿里推出“通义千问”,华为发布“盘古”,但百度凭借中文数据 + 搜索生态占据一定的先发优势。
2023—2025 年,文心一言全面对标 GPT,ChatGPT(2022 年底)引爆全球 AI 热潮,百度加速推进大模型商业化:
文心 4.0(2023 年)参数规模未公开,但官方称多模态能力接近 GPT-4,并推出插件系统(类似 ChatGPT 的 Code Interpreter),重点优化逻辑推理和长文本记忆,支持 10 万 +token 上下文窗口。
文心 4.5Turbo & X1Turbo 能力更强、成本更低。相比文心 4.5,文心大模型 4.5 Turbo 速度更快,价格下降 80%。文心大模型 X1 Turbo 相比文心 X1,性能提升的同时,价格再降 50%。X1 Turbo 引入“思维链 + 工具调用”复合架构,适合复杂任务(如数据分析、科研辅助)。
整体来看,文心大模型形成了从模型到工具平台的完整体系,包括文心 4.0、4.5、X1 等旗舰模型,文图生成模型,场景模型和轻量模型,文心一言和智能体,以及赋能开发者的数据生产、后训练、推理部署和场景化工具等,支撑开发者灵活高效地进行应用创新。
梳理百度近五年的发展轨迹,不难发现其正全力加速推进大模型。与此同时,百度一直在推崇的智能体领域,也即将要爆发。
当前,智能体已成为 AI 应用的代名词。无论从行业发展的外部趋势,还是百度自身能力延伸的内部视角考量,百度押注智能体领域无疑是一项明智的战略抉择。
代码智能体 Coding Agent,是最近半年 AI 应用进展最快、最火的赛道。全球陆续涌现了 cursor、devin、lovable 等一系列代码智能体。
在百度看来,多智能体协作是下一个高价值的 AI 应用方向。未来的 AI 应用将从回答问题走向任务交付,而任何一个复杂任务的交付,都需要多智能体的协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。
笔者认为,百度作为大模型领域一贯的先头兵,未来从模型到应用,越来越找到了自己的步伐。
评论