在 AI 技术迭代速度远超预期的 2025 年,开发者与企业正面临的一个核心命题是:当模型能力快速跃迁时,如何避免应用价值被技术浪潮淹没?
百度在 4 月 25 日的 Create 开发者大会上给出了答案。
在大会上,文心大模型 4.5 Turbo 与 X1 Turbo 正式亮相,沧舟 OS 内容领域操作系统同步发布,通用超级智能体 App“心响”也已上线。
百度在展示技术层面突破的同时,也以场景化应用和 MCP(Model Context Protocol)生态的全面布局,回应了行业对 AI 价值落地的热切期待。
李彦宏在现场对开发者表示:“只要找对场景,选对基础模型,有时候还要学一点调模型的方法,在此基础上做出来的应用是不会过时的。”
他强调:“没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”
01、文心大模型 4.5 Turbo:多模态、低成本、强推理
目前,AI 大模型的竞争已进入白热化阶段,但模态单一、推理幻觉、运行成本高等问题依然困扰行业。
针对这些痛点,百度推出了文心大模型 4.5 Turbo 和 X1 Turbo,分别以多模态能力、低成本和强推理为核心特性,展现了技术与性价比的平衡。
文心 4.5 Turbo 在多模态能力上进一步突破,速度更快,价格却大幅下降——每百万 token 输入价格仅 0.8 元,输出 3.2 元,较 DeepSeek-V3 低至 40%。
在多项基准测试中,4.5 Turbo 以 77.68 的平均分超越 GPT-4o 的 72.76,展现了竞争力。
X1 Turbo 则更进一步,基于 4.5 Turbo 的深度思考优化,每百万 token 输入 1 元、输出 4 元,仅为 DeepSeek-R1 的 25%,在问答、创作、逻辑推理和工具调用等场景中表现领先。
李彦宏在现场表示:“模型迭代快,但应用价值不会被覆盖。只要找对场景、选对模型、善用调优,AI 应用就能持续创造价值。”
这一观点为开发者注入了一剂强心针——大模型的真正价值,在于与场景的深度结合。
如果说文心大模型是百度 AI 的“心脏”,那么新发布的沧舟 OS 则是连接内容与应用的“神经系统”。
作为内容操作系统,沧舟 OS 以 Chatfile Plus 为核心,集成了公域知识库、私域知识库、记忆库“三库”,以及阅读器、编辑器、播放器“三器”,通过大模型的动态调用实现多模态内容的解析与处理。
沧舟 OS|图片来源:百度依托沧舟 OS,百度文库与百度网盘联合推出了“AI 笔记”功能。
用户在网盘观看视频时,可一键生成结构化笔记、AI 思维导图,甚至基于视频内容生成试题,实现视频与笔记的无缝联动。
截至目前,百度文库 AI 功能付费用户已超 4000 万,AI 月活用户达 9700 万;百度网盘 AI 月活用户超过 8000 万。
这一数据不仅体现了沧舟 OS 的生产力,也预示着内容领域 AI 应用的巨大潜力。
多模态能力的另一应用,是百度推出的高说服力数字人。
在电商直播场景中,传统数字人往往文案枯燥、动作僵硬,而百度的高说服力数字人通过多模态大模型,实现了声形超拟真、内容专业、互动灵活。
“剧本生成”功能可根据台词实时调整表情、语气和动作,而“AI 大脑”则能根据直播间热度动态调度助播、场控等角色,真正做到“一人即团队”。
百度慧播星平台还推出了“一键克隆”功能,用户仅需上传 2 分钟视频即可生成专属数字人,让“人人都能做主播”成为现实。
02、智能体与 MCP:点燃 AI 应用的生态引擎
在 Agent(智能体)成为行业热点的当下,百度也推出“心响”App 加入战场。
作为一款以“AI 任务完成引擎”为核心的产品,心响通过自然语言交互实现复杂任务的拆解、执行与结果交付。
目前,心响已覆盖深度研究、智慧图表、游戏开发等十大场景超 200 个任务,未来计划扩展至 10 万以上。
心响支持“多智能体协作”机制。在健康咨询场景中,系统可调度多位“医生 AI 分身”联合会诊;
在法律服务中,则由“律师智囊团”协同答复。这种机制突破了传统工具调用的局限,为专业场景提供了更高效的解决方案。
心响的免费开放与安卓版上线(iOS 版即将上架),也让更多用户能够体验 AI 智能体的魅力。
多智能体协作的潜力,还体现在百度去年推出的无代码编程工具“秒哒”上。
“秒哒”通过一句话即可生成应用,背后协同了产品经理、架构师、设计师等多个智能体,调用云存储、数据库、地图导航等工具组件。
用“秒哒”,一个大学生团队仅用几分钟就开发出过去需一周的营销工具,模型调用费仅 5 元。
李彦宏表示:“全球有 80 亿人,当技术门槛消失,每个人都可以具备程序员的能力。”
“秒哒”的全社会开放,进一步降低了 AI 应用的开发门槛。
MCP(Model Context Protocol)作为 AI 生态的新风口,正在重塑开发者与大模型的交互方式。
百度在此次大会上宣布全面拥抱 MCP,推出了全球首个电商交易 MCP、搜索 MCP 等服务,并优化了文心大模型在 MCP 任务规划与调度中的能力。
同时,百度智能云千帆平台已率先兼容 MCP,支持开发者创建和发布 MCP server;百度搜索则构建了 MCP server 发现平台,索引全网优质服务;文心快码成为国内首个支持 MCP server 的智能编码助手。
此外,百度文库、网盘、地图等应用也全面开放 MCP server 服务,百度电商推出的 MCP 服务则涵盖商品检索、交易、参数对比等功能,成为国内首家支持电商交易的 MCP 服务。
这一系列布局不仅降低了开发者的接入门槛,也为 MCP 生态的繁荣注入了新动能。
百度“文心杯”创业大赛启动|图片来源:百度除了技术与产品的突破,百度在 AI 人才培养与创业支持上同样投入不少。
5 年前提出的 500 万 AI 人才计划已提前完成,李彦宏在会上宣布,未来 5 年百度将再培养 1000 万 AI 人才。
此外,第三届“文心杯”创业大赛将单一项目最高投资额提升至 7000 万元,为创业者提供更强有力的支持。
硬件层面,百度点亮了国内首个全自研三万卡集群,可同时承载多个千亿参数大模型训练,并支持 1000 个客户进行百亿参数模型精调。
这一集群以高性能网络和创新散热方案,保障了训练任务的稳定性与能效。百度此次发布的技术矩阵,揭示了 AI 发展的三大趋势:多模态成为基础能力(文心大模型)、智能体重构人机协作(心响 App)、MCP 协议统一服务接口(百度 MCP 生态)。
当模型能力突破阈值,工具调用实现标准化,算力成本持续下降,AI 应用的新时代正在到来。
正如李彦宏所言:“能渗透场景、带来实在价值的 AI 应用,是属于开发者的真机会。”
“所有这些发布,都是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出最好的应用。”李彦宏在现场表示。
对国内 AI 行业而言,百度的这一系列动作不仅是技术实力的展示,也是对场景化应用与生态协同的深刻洞察。
在这场变革中,百度正通过技术创新与生态构建,为开发者铺就一条从模型到应用的“高速公路”。
随着文心大模型、沧舟 OS 与心响的持续迭代,AI 的“超级生产力”或许将更快地真正融入每个人的工作与生活。