您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
智能驾驶 正文
发私信给新智驾
发送

0

WAM世界行为模型+千亿参数+1400TOPS算力:拆解吉利全域AI 2.0的技术底座

导语:

一句话先说清楚

2026年1月CES上,吉利发布了汽车行业第一个全域AI技术体系2.0版本。这个体系的核心不在于某个单点功能有多炫酷,而在于它试图解决一个行业根本性问题:智能座舱、智能驾驶、底盘控制、动力管理——这些域各自为政的割裂状态,能不能被一个统一的"大脑"接管?

吉利的答案是WAM世界行为模型(World Action Model)。它不是一个大号语音助手,也不是一个单纯的智驾算法——它是一套能让汽车"理解→规划→预演→判断→修正"的完整智能闭环系统,首发搭载于极氪8X,由超级Eva智能体负责"想"、千里浩瀚G-ASD 4.0负责"动",国内首个实现座舱与智驾原生融合的量产方案就此落地。

从1.0到2.0:不是升级,是换了一种思维方式

全域AI 1.0时代,汽车行业的主流做法是把AI拆成模块:语音助手管交互,智驾系统管开车,底盘控制管悬架,动力系统管能耗。每个域都有自己的控制器、自己的算法、自己的供应商,互不干涉。这种架构的好处是工程上容易实现,坏处是用户体验是割裂的——你让车打开空调、调低座椅、规划一条不堵车的路去接人,这三件事需要分别操作,系统之间不会主动协作。

全域AI 2.0做了两件事来打破这种割裂。

第一件叫"智能体化"。吉利设计了"1+2+N"全域多智能体协同框架——"1"是用户,"2"是超级Eva和千里浩瀚G-ASD两个核心智能体,"N"是座舱、底盘、动力等各域的子智能体。不同域的智能体可以相互对话、协商和协作。用户只需要发出一个自然语言指令,系统会自动将任务分解给不同域的智能体,各域并行执行并协调资源。

第二件叫"引擎化"。吉利把感知、记忆、认知、决策这四类基础AI能力提炼为"全域感知引擎""全域记忆引擎""全域认知引擎""全域决策引擎"四个公共技术引擎,所有智能体都可以调用。这意味着任何一个域的AI能力提升,其他域都可以共享收益。

这种从"各管各的"到"一个大脑统筹全局"的转变,不是功能上的修补,而是架构上的重构。

WAM世界行为模型:让汽车拥有"世界观"

WAM(World Action Model)是全域AI 2.0的底层技术基座。它的架构设计基于分层理念,分成上下两层和一套价值体系。

上层是多模态大语言模型(MLLM),负责宏观任务规划。它接收用户的自然语言输入,理解意图,将复杂任务拆解为可执行的子任务序列。下层是"动作专家+世界模型"的组合,负责精细推演与决策——世界模型模拟环境变化和各种行动方案的后果,动作专家根据模拟结果选择最优执行路径。

关键创新在于"人类在环"(Human-in-the-loop)的价值函数体系。传统的自动驾驶系统用固定规则判断行为是否合理,WAM引入了基于人类反馈的价值函数,系统会根据用户的实际驾驶行为和反馈持续调整决策权重。简单说,这辆车会越开越懂你的风格。

在实际应用中,WAM驱动的千里浩瀚G-ASD 4.0具备三道技术护城河。

其一是超高含模量。云端多模态大模型与世界模型的参数规模达到千亿级别。作为参照,当前多数主流智驾端到端模型的参数规模集中在十亿到百亿量级。更重要的是,G-ASD 4.0融入了国宾级司机的驾驶行为数据,在拟人性、安全性、舒适性和通行效率四个维度上均实现了提升。

其二是超大数据集。吉利旗下累计850万辆车的辅助驾驶数据、百亿公里智驾里程、2500万个模型训练片段,以及沃尔沃55年的事故数据库——这些数据构成了G-ASD训练的数据底座。智驾系统的核心壁垒从来不在算法结构,而在数据质量和数据规模。数据决定了模型的上限,算法只是逼近这个上限的工具。吉利作为年产超过300万辆的头部车企,在数据积累上的优势是绝大多数新势力和科技公司难以在短期内追平的。

其三是硬件天花板。H9方案搭载双NVIDIA Thor芯片,算力达到1400TOPS,配合5颗激光雷达实现3重360度全维感知覆盖,已具备L3级智能驾驶方案的落地能力。硬件冗余是L3自动驾驶的前置条件:当系统需要在特定场景下将驾驶权交给车辆时,必须有足够的感知密度和算力带宽来支撑实时决策。5颗激光雷达中的1颗为520线远距激光雷达,负责前方200米以上的远距感知,其余4颗为固态激光雷达,覆盖车身两侧和后方的盲区——这种配置在当前量产车型中属于最高规格。同时在GTC 2026上,吉利宣布与NVIDIA深度合作,将集成Alpamayo、Cosmos和NuRec三个平台,进一步提升基于WAM的智驾开发、仿真与验证效率。Alpamayo负责物理世界仿真,Cosmos提供生成式数据合成能力,NuRec则用于端到端模型的训练优化——三个平台组合起来,可以在不依赖大量实车路测的情况下高效迭代算法。

超级Eva:从语音助手到整车智能体

如果说WAM是"大脑",超级Eva就是这个大脑面向用户的"人格"。

传统的车载语音助手本质上是一个指令执行器——你说"打开空调",它执行"打开空调"。超级Eva的设计逻辑完全不同。它基于WAM世界行为模型,与智能驾驶、底盘、动力等底层系统原生融合,而不是在传统架构上外挂一个聊天机器人。这个区别至关重要:原生融合意味着Eva可以直接调用智驾系统的能力、操控底盘的响应、调整动力的输出,而不需要经过中间层的协议转换。

超级Eva由三个核心能力构成。

可聊性。Eva接入了阶跃星辰的端到端语音语义一体化模型Step 3.5 Flash,抛弃了传统"语音识别→大语言模型→语音合成"三段式架构的延迟和机械感。音频信号直接输入大模型,模型同时输出意图标签和执行参数。在单请求代码类任务下,推理速度最高达350TPS。座舱芯片方面,吉利首发搭载NVIDIA与联发科联合开发的天玑汽车座舱平台旗舰芯片C-X1,采用NVIDIA Blackwell GPU架构,支持第二代Transformer引擎和NVFP4,专门针对大语言模型和视觉语言模型的推理性能做了优化。

深规划。Eva具备多模态感知融合和动态任务规划引擎。当用户发出模糊指令时,比如"带我去接孩子放学,顺便帮我找一家麦当劳,5点我要到学校",系统不会只规划导航路线,而是会将这个指令拆解为一个并行的动作序列:启动智驾导航到学校→途经点搜索麦当劳并预订→评估到达时间是否满足5点要求→到达后自主泊车。座舱配置、内容推荐、服务预订、健康监测——所有这些任务由不同域的智能体并行执行,而不是排队响应。

强记忆。Eva的短期记忆存储对话中的实体信息与情感标签——它不仅记住你说了什么,还记住你说话时的情绪状态。长期记忆则构建关系图谱(家庭成员、重要事件等)和偏好概率值。这意味着Eva的体验会随着使用时间的增长而持续个性化,从"通用AI"逐步进化为"个人AI"。

舱驾融合的真正含义:不是两个系统"能对话",是一个系统"能思考"

"舱驾融合"这个词在2025-2026年几乎每个车企都在讲,但大多数的"融合"停留在功能联动层面——导航到了充电站自动打开充电口,语音说完目的地自动开始智驾导航。这种融合本质上是两个独立系统通过API接口互相调用。

吉利的舱驾融合走了不同的路径。WAM世界行为模型从架构层面打通了座舱域和智驾域的底层能力。Eva和G-ASD 4.0共享同一套感知引擎(都能"看见"车内外环境)、同一套记忆引擎(都知道用户是谁、去过哪里)、同一套决策引擎(都遵循同一套价值函数)。

举个具体例子来理解这种差异。在传统架构下,用户说"前面路太堵了,帮我换条路",座舱系统需要把这句话转成一条导航指令发给智驾系统,智驾系统重新规划路线后再反馈给座舱系统展示。两次通信、两次解析、两次决策,中间有延迟、有可能理解偏差。

在WAM架构下,这句话由同一个决策引擎处理。系统直接理解"堵"意味着什么(通过感知引擎实时获取路况)、"换条路"意味着什么(通过认知引擎检索替代路线)、"帮"意味着什么(需要自动执行,不需要二次确认)。整个过程是一次决策、一次执行,没有中间环节。

这种架构上的统一,在实际体验上的差异是显著的。它让汽车从一个"装了很多智能模块的交通工具"变成了一个"拥有统一智能的出行伙伴"。从工程角度看,舱驾融合的终极目标不是让座舱"能控制"智驾,而是让两者"共享同一套对世界的理解"。当座舱系统和智驾系统对同一时刻的路况、用户意图和车辆状态有一致的认知时,系统间的协作效率才能达到最优。这也是为什么吉利将超级Eva定位为"国内首个实现类Grok+FSD原生AI体验的量产方案"——特斯拉用Grok打通了AI与车辆控制的对话式交互,吉利在同样的技术路线上实现了量产落地。

AI不只是产品,更是体系能力

讨论吉利的AI战略,不能只看车上的技术。全域AI 2.0的底层支撑,是吉利过去几年在算力基础设施和研发体系上的持续投入。

星睿智算中心是吉利智能化研发的核心基础设施。这个中心早在2023年就已上线运营,是国内车企首个入选全球算力500强的智算平台。依托星睿智算中心的云端算力,吉利可以在8小时内完成1000个以上智驾模型的训练迭代。阿里云作为技术合作伙伴,为星睿智算中心提供了算力效率优化支持。

在研发组织上,吉利在2025年与阶跃星辰、千里科技、星纪魅族等生态合作伙伴成立了"物理AI联合实验室",专注于将通用AI能力与汽车场景深度融合。这种"车企+AI公司+芯片公司"的联合研发模式,在国内汽车行业中并不多见。

从数据角度来看,吉利2025年全年销量突破302万辆,其中新能源销量近169万辆,同比增长90%。2026年目标345万辆,计划推出约10款全新车型。300万辆级的年销量意味着每天有数百万辆吉利车在路上行驶,每辆车都在持续产生驾驶数据、环境数据和用户行为数据。这些数据通过WAM架构的价值函数体系反馈到模型训练中,构成"数据飞轮"——车越卖越多,数据越积越多,AI越聪明,产品越好卖。

这套飞轮一旦转起来,后来者追赶的难度不仅在于算法,更在于数据的规模和质量。这也是为什么吉利将全域AI定位为"集团级战略"而不是"某个车型的卖点"——AI能力的建设周期以年为单位,数据的积累周期以百万辆车为单位,这些都需要长期主义投入才能形成壁垒。

写在最后

全域AI 2.0不是一个发布会上的概念,而是一套正在量产的技术体系。WAM世界行为模型提供了统一的"世界观",超级Eva提供了面向用户的"人格",千里浩瀚G-ASD 4.0提供了执行层面的"肌肉",星睿智算中心提供了持续进化的"燃料"。

从2024年1月发布星睿AI大模型,到2025年CES发布全域AI 1.0,到2026年CES进化到2.0,再到GTC 2026宣布超级Eva量产上车——吉利用两年时间完成了从"AI应用"到"AI架构"的跨越。

对于用户来说,最直观的变化可能只是:以前你要分三步完成的事,现在一句话就够了。但对于行业来说,这意味着智能汽车的竞争维度,正在从"谁的智驾更厉害"升级为"谁的AI体系更完整"。

三个值得关注的信号:第一,吉利的全域AI 2.0已经进入量产阶段,不是概念演示,极氪8X是第一个载体,后续更多车型将陆续搭载;第二,WAM架构的开放性和可扩展性意味着这套系统能持续吸收新的AI能力,包括阶跃星辰、千里科技等合作伙伴的最新模型迭代;第三,300万辆年销量带来的数据飞轮效应已经开始转动,这将持续扩大吉利在AI训练数据方面的优势。

(雷峰网(公众号:雷峰网)新智驾北京车展2026专题)

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说