您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
智能驾驶 正文
发私信给新智驾
发送

0

华为智驾技术演进史:从ADS 1.0到5.0的跃迁

导语:

2026年北京车展上,果ADS 5.0如预期首发亮相——端到端全AI大模型、L4级无图NOV、896线激光雷达上车——这将是华为智能驾驶系统自2021年首次对外展示以来的第五个版本号。

但版本号本身说明不了太多问题。真正值得关注的,是每个版本号背后几乎都伴随着一次底层架构的重写。

用一句话概括这条演进路径:

  • ADS 1.0(2021):证明"华为能做智驾"
  • ADS 2.0(2023):解决"只能跑有图的路"
  • ADS 3.0(2024):做到"没有地图也能跑"
  • ADS 4.0(2025):实现"AI自己学开车"
  • ADS 5.0(2026车展预期):迈向"不需要人教的全向驾驶"

这不是简单的功能堆叠。从BEV到GOD、从规则驱动到数据驱动、从分模块流水线到端到端大模型——每一次版本跳跃的背后,都是对上一代方案的底层逻辑进行了一次重新审视。

截至2025年底的数据可以作为参照系:乾崑智驾已链接14家车企、覆盖33款量产上市车型、累计智驾行驶里程58.1亿公里、辅助驾驶活跃用户占比达95.2%。在35万元以上的豪华新能源市场,华为乾崑的市占率已达53%。

这些数字背后,是五年来一代又一代算法架构迭代积累的结果。而要理解ADS 5.0为什么值得在北京车展上占据C位,最好的方式是回到起点,把每一步走完。

二、ADS 1.0→2.0:从"认路"到"认障碍物"

ADS 1.0的时代

2021年4月上海车展,极狐阿尔法S HI版首次公开亮相,搭载的就是华为第一代高阶智能驾驶系统——ADS 1.0。

那是中国市场上最早一批声称能实现城市道路高阶智驾的系统之一。它的技术底座基于当时行业主流的方案:Transformer架构驱动的BEV(Bird's Eye View,鸟瞰图)感知系统,配合多传感器融合(激光雷达+毫米波雷达+摄像头),再叠加高精地图提供先验信息。

功能层面,ADS 1.0实现了高速NCA(智驾导航辅助)、基础城区NCA(首批在深圳落地)、车道保持和自适应巡航等L2+级别能力。2021年9月,极狐阿尔法S全新HI版在深圳率先推送城区NCA功能——这是全球首款支持中国城市复杂道路的高阶智驾量产车,在当时的行业里算得上一个标志性事件。

但它有一个致命的限制:高度依赖高精地图

高精地图意味着什么?意味着系统只能在已经完成高精测绘的城市道路上运行。一旦驶出覆盖范围——哪怕只是出了城上了省道——智驾能力就会立刻退化为最基础的L2辅助驾驶。更现实的问题是,高精地图的测绘、更新和维护成本极高,覆盖速度远远跟不上中国道路建设的速度。一个今天刚开通的立交桥,可能需要数周甚至数月才能被更新到高精地图中。

定价方面,ADS 1.0一次性买断价32,000元,包月订阅640元。这个价格在当时并不便宜,但考虑到它提供的确实是市面上少有的高阶智驾体验,市场接受度尚可。

不过ADS 1.0的交付过程并不顺利。极狐阿尔法S HI版从2021年4月发布到正式交付,中间跳票了近一年的时间。这在汽车行业不算罕见,但对于一个急于证明自己技术实力的新入局者来说,每一天的延迟都在消耗市场的耐心。

ADS 2.0:质变的开始

真正的转折点出现在2023年4月16日——上海车展前夕,华为正式发布ADS 2.0。

这一次不是修修补补的升级,而是两个关键技术的引入,从根本上改变了系统的认知方式。

GOD网络:从"认识100种危险"到"识别所有异常"

传统自动驾驶感知方案的核心逻辑是"白名单识别":系统预先训练过100种障碍物(车辆、行人、自行车、交通标志等),然后在运行时逐一比对——是认识的就处理,不认识的就忽略或报错。

这种方案的问题显而易见:真实世界里的危险远不止100种。路上可能出现倒下的大树、散落的货物、形状不规则的施工障碍物、甚至是闯入道路的动物——这些都不在任何训练集的白名单里。

华为给出的解决方案叫做GOD网络(General Obstacle Detection,通用障碍物检测)。它的核心思路是:不再试图穷举所有可能的障碍物类型,而是让系统学会判断"什么东西不应该出现在这个位置"。只要一个物体在时间空间上呈现出异常特征,GOD就能将其标记为需要处理的障碍物。

这意味着什么?意味着系统从"只能认出学过的东西"变成了"能认出没见过的异常"。这不是精度提升10%或者20%的问题,是感知范式层面的改变。就像一个老司机和一个新手的区别:新手看到的是他学过的几种路况,老司机看到的是"这里不对劲"。

RCR网络:理解道路的连接关系

第二个关键技术叫RCR网络(Road Connectivity Reasoning,道路拓扑推理网络)。

在BEV架构之上,RCR负责推理道路之间的连接关系。简单来说,就是让系统不仅"看见"眼前的路面,还能"理解"这条路通向哪里、前方路口有几条岔路、哪条是主路哪条是辅路。这为后续摆脱高精地图依赖打下了基础——如果系统能自行推理道路拓扑,那就不需要地图来告诉它路是怎么连的了。

无图能力的起步与NCA性能飞跃

有了GOD和RCR的加持,ADS 2.0正式启动了"去高精地图"的战略进程:

  • 第三季度落地15个无图城市
  • 第四季度在此基础上新增30个,累计达到45个无图城市
  • 高速NCA平均人工接管里程从100km大幅提升至200km,直接翻倍

接管里程翻倍是一个非常有说服力的数据。对于用户来说,这意味着在高速公路上使用智驾时,平均每200公里才需要人工介入一次——已经从"尝鲜功能"的范畴进入了"实用工具"的门槛。

此外,ADS 2.0还引入了NPR智能变道功能。基于PDP网络的预测性决策规划,变道行为变得更加拟人化——不再是机械地执行指令,而是在观察周边车流态势后做出更符合人类驾驶习惯的决策。

泊车能力也全面升级。APA智能泊车支持160余种车位类型,包括斜坡车位、断头路车位等非常规场景;当车位宽度余量小于0.4米时,RPA遥控泊车可以接管实现直入直出;AVP代客泊车则支持跨楼层自主导航和车位被占时的漫游寻找。

价格方面,ADS 2.0一次性买断36,000元(比1.0上涨4000元),包月订阅720元。涨幅不大,但考虑到能力的大幅提升,性价比实际上更高了。

ADS 2.0的意义在于,它证明了华为不只是能把智驾做出来,还能让它变得越来越好用。从"能用"到"好用"之间隔着的,正是GOD网络和RCR网络这两个底层创新。

三、ADS 3.0→4.0:抛弃BEV,让AI自己学车

ADS 3.0:无图时代的成熟

进入2024年,ADS 3.0带来了一个看似低调但影响深远的决定:彻底摒弃BEV架构,全面转向以GOD网络为核心的感知体系

如果说ADS 2.0是在BEV的基础上加了GOD作为补充,那ADS 3.0就是彻底换了地基。BEV被完全移除,GOD成为唯一的感知主干。这意味着系统不再依赖鸟瞰图的视角转换来理解环境,而是通过通用障碍物检测网络直接从原始传感器数据中构建世界模型。

伴随这一架构切换的是功能的快速成熟:

  • 车位到车位智驾领航:用户从家出发,车辆在家门口停车位启动智驾,一路经过小区道路、城市道路、高速公路,最终到达目的地的停车位——全程无需人工接管。这个"最后的一公里"和"最初的一公里"的打通,让智驾真正覆盖了完整的出行链路。
  • 城区NCA大规模商用:红绿灯识别与响应、行人和非机动车的精准避让、复杂路口的无保护左转/右转……这些曾经被认为是智驾"禁区"的场景开始被逐一攻破。
  • 无图能力从45个城市快速扩展到全国主要一二线城市。

从用户体验的角度看,ADS 3.0是一个分水岭。在此之前,智驾更多是"有就用一下"的加分项;在此之后,它逐渐变成了一部分车主"每天通勤都要开"的刚需功能。

ADS 4.0:范式转换

2025年发布的ADS 4.0,可能是整个演进过程中最激进的一次跨越。

核心变化可以用一句话概括:研发范式从"人类教AI"切换为"AI自己学"。

华为将这套新架构命名为WEWA——由World Engine(世界引擎)和World Action Model(世界行动模型)两部分组成。

World Engine:从"标注数据"到"理解世界"

在ADS 4.0之前的版本中,感知系统的工作方式本质上是"监督学习":人类标注员对着摄像头画面框出车辆、行人、交通灯,然后神经网络学习这些标注模式。这种方式有效但有天花板——标注数据的规模和质量决定了系统的上限。

World Engine尝试突破这个天花板。它不再依赖人工标注的精确边界框,而是通过海量未标注的真实驾驶数据,让系统自发学习环境中的规律和结构。类似于人类驾驶员不需要有人告诉他每一棵树在哪里、每一个行人穿什么颜色,他只需要"感受"到环境中哪些元素是需要关注的。

World Action Model:从"规则代码"到"学习策略"

更根本的变化发生在决策和规划层。此前的系统中,大量驾驶策略是以工程师编写的规则形式存在的:"跟车距离保持在X米以上""变道时侧后方安全距离不少于Y米""遇到黄灯时如果距离小于Z米则减速而非加速"……

这些规则在简单场景中行之有效,但在复杂的中国城市道路面前显得捉襟见肘——因为真实的驾驶场景中有太多的corner case无法用if-else语句穷举。

World Action Model的思路是:给AI看海量优秀人类驾驶员的操作数据,让它自己总结出"在这种情况下应该怎么做"的策略。类比一下:以前是教孩子背交规条文,现在是让孩子坐在副驾驶座上看一万次老司机开车,然后自己悟出什么时候该加速、什么时候该让行。

L3级的推进与首发车型

在这套新架构的支撑下,华为开始在ADS 4.0上推进L3级别的自动驾驶能力:

  • 高速场景的L3级自动驾驶率先实现商业化落地
  • 城区场景的L3级能力同步推进中

首发车型包括问界M9 2025款全景智慧旗舰SUV和尊界S800。其中尊界S800作为一款指导价70万-140万的超豪华车型选择首发搭载ADS 4.0,本身就说明了华为对这套系统成熟度的信心——在这个价位段,任何技术瑕疵都会被成倍放大。

ADS 4.0最重要的变化不在功能列表里,而在研发流程里。当华为告诉外界"现在是AI在学习怎么开车"的时候,它在说的不是一句营销话术——而是这套系统的每一个决策,都已经不再来自工程师写的条件判断语句了。

四、ADS 5.0:终局形态还是新起点?

北京车展预期:端到端大模型的登场

按照目前的公开信息和行业节奏推断,2026年北京车展上华为有望首发展示ADS 5.0的核心能力。

ADS 5.0最引人注目的变化是端到端全AI大模型的引入。

什么是端到端?传统的智驾系统是一条分模块的流水线:感知模块输出检测结果 → 预测模块输出轨迹预测 → 规划模块输出行驶路径 → 控制模块输出方向盘转角和加减速指令。每个模块之间有明确的接口定义,每个模块由不同的团队独立开发和优化。

端到端架构打破了这个流水线。输入端的传感器原始数据(图像、点云等)直接送入一个大模型,大模型直接输出车辆控制指令(转向、油门、刹车)。中间没有独立的感知模块、没有独立的规划模块、没有工程师定义的接口协议——一切由神经网络内部的表征学习来完成。

这种架构的优势在于:消除了模块之间信息传递的损失(感知漏检的信息不可能在规划阶段凭空补回来),也让系统能够学到一些跨模块的优化策略(比如为了后续变道更顺滑而在感知阶段就提前关注侧方车辆的细微动态)。

伴随端到端架构而来的是L4级无图NOV(Native Omnidirectional Driving,原生全向驾驶)。不同于此前各版本的渐进式升级,NOV的设计目标是让系统从一开始就以"全向、无图、原生"的方式运行——不需要高精地图、不限定向高速或城区、不分主干道或支路。

硬件层面,896线激光雷达预计将在ADS 5.0的首批搭载车型上标配。双光路设计带来的图像级感知精度,为端到端大模型提供了前所未有的高质量输入数据。

从1.0到5.0:一张全景对比表

<lark-table rows="8" cols="6" column-widths="122,122,122,122,122,122">

<lark-tr> <lark-td> 维度 </lark-td> <lark-td> ADS 1.0 (2021) {align="center"} </lark-td> <lark-td> ADS 2.0 (2023) {align="center"} </lark-td> <lark-td> ADS 3.0 (2024) {align="center"} </lark-td> <lark-td> ADS 4.0 (2025) {align="center"} </lark-td> <lark-td> ADS 5.0 (2026预期) {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 感知架构 </lark-td> <lark-td> BEV + 高精地图 {align="center"} </lark-td> <lark-td> BEV + GOD + RCR {align="center"} </lark-td> <lark-td> 纯GOD(弃用BEV) {align="center"} </lark-td> <lark-td> WEWA 世界模型 {align="center"} </lark-td> <lark-td> **端到端大模型** {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 地图依赖 </lark-td> <lark-td> 强依赖(离开即退化) {align="center"} </lark-td> <lark-td> 无图起步(45城) {align="center"} </lark-td> <lark-td> 大规模无图商用 {align="center"} </lark-td> <lark-td> 全场景无图 {align="center"} </lark-td> <lark-td> **原生无图NOV** {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 决策方式 </lark-td> <lark-td> 工程师编写规则 {align="center"} </lark-td> <lark-td> 规则为主 + 数据增强 {align="center"} </lark-td> <lark-td> 数据驱动为主 {align="center"} </lark-td> <lark-td> **AI自学习(WEWA)** {align="center"} </lark-td> <lark-td> **端到端AI决策** {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 城区能力 </lark-td> <lark-td> 试点(深圳) {align="center"} </lark-td> <lark-td> 45城无图 {align="center"} </lark-td> <lark-td> 全国主要城市 {align="center"} </lark-td> <lark-td> L3级推进 {align="center"} </lark-td> <lark-td> **L4级NOV预期** {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 高速接管里程 </lark-td> <lark-td> ~100km {align="center"} </lark-td> <lark-td> 200km(翻倍) {align="center"} </lark-td> <lark-td> 数百km级别 {align="center"} </lark-td> <lark-td> 千km级别 {align="center"} </lark-td> <lark-td> 待实测验证 {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 泊车能力 </lark-td> <lark-td> 基础APA {align="center"} </lark-td> <lark-td> 160+种/RPA/AVP {align="center"} </lark-td> <lark-td> 车位到车位 {align="center"} </lark-td> <lark-td> 全场景覆盖 {align="center"} </lark-td> <lark-td> 进一步增强 {align="center"} </lark-td> </lark-tr> <lark-tr> <lark-td> 定价 </lark-td> <lark-td> 3.2万 / 640元·月⁻¹ {align="center"} </lark-td> <lark-td> 3.6万 / 720元·月⁻¹ {align="center"} </lark-td> <lark-td> 持续调整中 {align="center"} </lark-td> <lark-td> 持续调整中 {align="center"} </lark-td> <lark-td> 待公布 {align="center"} </lark-td> </lark-tr> </lark-table>

必须承认的不确定性

在展望ADS 5.0的同时,有几个客观存在的挑战不容回避:

L4级的实际可靠性仍需验证。 L3和L4之间隔着的不只是一条法律责任的红线,更是技术可靠性的巨大鸿沟。目前全球范围内尚无任何一家企业在大规模量产车上实现了真正意义上的L4级自动驾驶(限定区域内的Robotaxi除外)。ADS 5.0能否在北京车展后的一两年内将L4从概念推向量产,还有待观察。

端到端模型的"黑箱"难题。 当系统从分模块的透明流水线变成一个巨大的神经网络黑箱之后,当系统做出错误决策时,排查原因的难度呈指数级上升。传统架构中可以通过定位"是感知漏检还是规划错误"来针对性修复,而端到端架构中往往难以归因。这对工程化落地提出了全新的挑战。

竞争格局仍在动态变化中。 特斯拉FSD在中国市场的入局进度、小鹏XNGP的技术迭代速度、以及理想、蔚来等厂商的自研智驾进展,都在持续改变着市场格局。ADS 5.0能否在竞争中维持领先优势,取决于其技术能力和产品化节奏的双重表现。

五、ADS演进背后的三条逻辑

回望从ADS 1.0到5.0的完整路径,有三条贯穿始终的逻辑值得关注。

第一:每次架构重写都是"否定之否定"

仔细梳理ADS的演进历程会发现一条有趣的现象:华为几乎每隔一两年就会推翻前一代的核心架构。

ADS 1.0用BEV → ADS 2.0在BEV上加GOD → ADS 3.0干脆扔掉BEV → ADS 4.0换成WEWA → ADS 5.0走向端到端。

很多公司的做法是在既有框架上不断叠加新功能、修补边缘case,尽量延长一套架构的生命周期——因为这涉及到庞大的重构成本和团队惯性。华为选择了另一条路:当发现当前架构的天花板无法突破时,果断换掉地基而不是继续粉刷墙壁。

这种做法需要的不仅仅是技术能力,更是战略定力。在一个快速变化的赛道里,承认"上一代的思路走不通了"并投入资源开辟新路,比在舒适区里做增量改进要困难得多。

第二:"无图"是贯穿五代的一条红线

如果给ADS的演进提炼一个不变的目标,那大概就是:摆脱对高精地图的依赖

  • ADS 1.0:强依赖高精地图,离开覆盖范围即刻退化
  • ADS 2.0:GOD+RCR让无图成为可能,首批45城落地
  • ADS 3.0:彻底抛弃BEV,无图能力全国规模化扩展
  • ADS 4.0:WEWA架构下的全场景无图
  • ADS 5.0:原生无图NOV,从设计之初就不假设地图存在

华为在ADS 1.0时代就已经意识到高精地图路线的不可持续性。五年下来,"无图"从一个差异化卖点变成了全行业的共识方向——特斯拉的FSD同样坚持纯视觉无图路线,小鹏也在大力推进XNGP的无图能力。

不同的是,华为选择了一条从"有图"逐步过渡到"无图"的渐进式路径,而不是一开始就彻底放弃地图信息。这让其在过渡期内能够兼顾可用性和技术前瞻性。

第三:从技术演示到日常使用

ADS 1.0时代的智驾更像是一个技术演示品——它能跑、能在深圳的城区道路上演示、能让媒体记者惊叹——但普通消费者想用它上下班通勤还太早。跳票一年的交付延迟、仅限试点城市的覆盖范围、较高的学习成本,都把它限制在了早期 adopter 的圈子里。

ADS 2.0开始让智驾变得好用起来。接管里程翻倍、无图城市扩展、泊车能力大幅增强——这些改进让智驾从"偶尔体验一下"变成了"出门可以开着"。

ADS 3.0到4.0则是从"好用"推向"天天用"的阶段。车位到车位打通了完整出行链路、L3级能力让高速长途驾驶大幅减负、AI自学习范式让系统能够越用越聪明。

ADS 5.0的目标是把这种体验进一步推近到"离不开"——当端到端大模型让智驾的平顺性和安全性达到甚至超越熟练人类的水平时,选择不开智驾反而会成为少数派。

这个过程背后隐藏着一个容易被忽略的事实:技术的价值不在于发布会上演示得多么惊艳,而在于每天早晚高峰的车流中,有多少人在默默地使用它。 95.2%的辅助驾驶活跃用户占比,或许比任何技术参数都更能说明问题。


北京车展上ADS 5.0如果如期亮相,它面对的不是一个具体的竞品或一个具体的功能缺口。它在回答一个从2021年极狐阿尔法S HI版首次亮相时就开始被追问的问题:

一台机器能不能真正理解它所处的这个世界?

从ADS 1.0的高精地图依赖到ADS 2.0的GOD通用障碍物检测,从ADS 3.0的彻底弃用BEV到ADS 4.0的WEWA AI自学习,再到ADS 5.0预期的端到端原生无图——华为用了五年时间和至少四次底层架构重写,给出了一个阶段性答案。

而这个答案的下一章,可能才刚刚翻开。

(雷峰网(公众号:雷峰网)新智驾北京车展2026专题)

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说