您现在的位置:新闻首页>推选

华为终于捅破了那层窗户纸:L3来了

2025-04-24编辑:admin(来源:原创/投稿/转载)


  在上海车展开幕前一天,华为终于捅破了那层窗户纸,成为全球市场上首个提供L3级有条件的自动驾驶方案的供应商。

  尽管在3月29日小米安徽智驾事故引发的涟渏持续发酵,监管层正从OTA频次、宣传用语、L2与L3的边界进行了限定,严管高阶智驾乱象。

  尽管众多车企、智驾供应商连夜修改文案,「辅助」二字被放大放大再放大,「高阶智驾」无人再提,但L3还是如离弦之箭在2025上海车展开幕之前落地。

  昨晚(4月22日),华为智能汽车解决方案CEO 靳玉志在华为乾崑智能技术大会上正式发布新一代高阶智能驾驶辅助系统ADS 4,并发布了高速L3商用解决方案。

  汽车行业从此可以将「辅助」驾驶中的辅助二字删掉,堂堂正正的宣布「自动驾驶」,尽管是有条件的自动驾驶。

  中国汽车市场为了L3的落地已经准备了近十年之久,而今天终于由华为终结了L2.9999+的文字游戏。

  从华为官方宣布的L3商用场景而言,仅有高速L3,不过事实上华为同时发布了代客泊车VPD 2.0功能,这是典型的L4场景。

  所以,华为乾坤智驾需要攻克的L3的下一个落地场景即是城市出行,没有按渐进式L3落地场景从自动泊车、高速、城市的顺序推进,而是一步跨进到高速场景。

  华为乾坤智驾ADS至今已经发展了三代,从2022年发布的ADS 1,率先商用城区智驾辅助NCA,到2023年发布的ADS 2,业界首发“全向主动安全,全国都能开”,再到2024年发布的ADS 3,业界首发车位到车位、泊车代驾VPD,ADS几乎一年一个全新版本,每一代都有质的变化。

  自2024年北京车展起,华为ADS有了品牌名字:乾崑智驾,从此和鸿蒙座舱一样成为华为在汽车领域打造的两个技术品牌。

  此次发布的ADS 4是一套系列化的解决方案。通过系列化配置,满足不同车型与用户的多样化需求,ADS 4共有4个档位:

  第2档是ADS Pro增强版,搭载舱内激光视觉传感器,主动安全能力与城区LCC+功能进一步增强。

  第3档是ADS Max超阶版,搭载高性能超远距激光,可选配分布式毫米波雷达及高精度固态激光雷达,支持全维主动安全、高速NCA、城区NCA及车位到车位与泊车代驾等高级功能。

  但从官方介绍上,第四档和第三档并没有提及配置的差异,智驾网分析,两个版本不存在传感器等感知配置的差异,主要区别应该来自于芯片配置的多少,算力冗余本身也是L3的要求之一,而鉴于华为自研的智驾芯片算力、制程一直颇为神秘,于是没有在发布会上公开宣讲。

  我们先来看架构升级,华为打造了全新的WEWA架构,该架构可以与数字底盘引擎XMC深度协同,其智驾体验从类人到超人。

  靳玉志称这一架构是面向未来的自动驾驶全新开发的,该架构由云端的世界引擎WE(World Engine)和车端的世界行为模型WA(World Action Model)组成。

  靳玉志表示:「当前用于智驾训练的数据,不缺普通数据,缺的是长尾的各种Corner case数据。如果用人工采集,不光效率低,很难获得高质量的数据。」

  他说:「我们的世界引擎,利用扩散生成模型技术,能够高可控的生成各种平时人类司机开车很少遇到的难例场景,比如侧前车Cut-in、红绿灯路口、宠探头、前车急刹等多种场景及组合场景,难例密度相比现实世界高1000倍,从人教AI到AI教AI,通过强化学习,实现安全价值观内化。」

  当前行业的智驾,都是基于业界开源的通用大模型进行二次训练而来,在车端运行时时延大、资源要求高。

  首先:包括“视觉、听觉、触觉”的多传感器全模态感知能力,这些信息经过token化后生成智驾原生基模型。

  其次:基模型为MoE多专家能力架构,不同场景调用不同能力。最后输出两类信息:给车用的轨迹生成,从模仿人类到超越人类;给人看的场景意图,给人更安心的驾驶体验。

  对于车端和云端大模型,这里华为并没有宣称自己的智驾架构是基于VLA等物理AI的大模型,而是世界行为模型,二者的思维方式和逻辑是一致的。

  华为另一项自信的技术在于其数字底盘技术:HUAWEI XMC数字底盘引擎,它同时打通了智驾域与车控域,通过全域融合,实现了智驾与车控的协同控制。

  在拥抱中央计算方面,这一全域融合架构实现了车身、电机、悬架、转向、制动、热管理等部件的中央集中控制,控制处理能力提升10倍、协同控制器件数提升5倍。

  同时XMC使用干兆以太通信,华为独创ASN车辆切片网络技术加持实现小于1ms的确定性通信链路时延,端到端调度能力提升10倍。

  在这里ADS类似于车辆的大脑,HUAWEI XMC数字底盘引擎则是车辆的四肢,二者协调才能保障行驶的安全和最佳的体验。

  全域融合的另一大好处是,车辆配置的大量传感器不仅可用于智驾,也可以根据道路情况,自动调整车辆行驶姿态,

  ADS+XMC形成了三大网络和模型:车路状态预测网络、时空智能悬架网络(Z向)和全维协同控制模型(XYZ):

  靳玉志将其称为从“前向+侧向+后向”的全向防碰撞系统升级到全维防碰撞系统CAS 4.0,具有“全方向、全场景、全时速、全天候、全目标”的五维安全能力。

  为此华为首发了三款激光雷达:一款高精度固态激光雷达、一款舱内激光视觉传感器和首创的分布式毫米波雷达。

  这款高精度固态激光雷达体积更小,可以隐蔽安装,不影响整车外观设计,但同时精度高、视野广:相比超声波雷达最高有5倍的提升,可以检测杆子、石头等异形障碍物;垂直方向的FOV视角是普通传感器的2倍,对下沉台阶、沟渠等负向障碍物以及水管、消防箱等悬空障碍物进行检测。

  所谓全时速指的是华为乾崑在前向、侧向、后向上AEB的生效范围,做到了从1km/h的最低车速到150km/h最高车速的覆盖,华为官方发布的数据是——

  全目标指的是对所有道路参与者的识别,华为发布的舱内激光视觉——Limera是一个全新的传感器品类,在这一领域卓驭(原大疆车载)推出过激目传感器,与此有相似之处。

  靳玉志表示,华为的Limera体积小巧高度集或,可在舱内“隐形”部署,可提升雨天,脏污场景适应性;同时大幅提升了远距离小目标检测能力,即使在夜晚光线cm高的小体积障碍物,AEB也能做到100公里时速刹停。

  结合华为在无线领域的分布式基站经验,通过创新的分布式架构,对于同一目标可获取3倍的感知信息,迭加DSP算法,实现检测置信度和分辨率的大幅提升,即使对于前方静止障碍物,也能识别。在大雾天气下驾驶员已看不清前方,采用了分 布式毫米波雷达的ADS系统,依然可以做到对静止障碍物的AEB刹停。

  华为乾崑为此一方面提升了路面自适应AEB能力,新发了两项辅助技术:智驾爆胎稳定控制辅助和驾驶员失能辅助功能,同时提升了哨兵模式的敏感力。

  当前华为乾崑的路面自适应AEB能力,车辆在80km/h的时速下,行驶在左右附着系数不等的对开路面上可以实现AEB稳定激活。

  同时经过测试,华为乾崑实现了小于200毫秒的极短检测时延,在高速直行、弯道、湿滑路面等场景下,无论前轮或后轮爆胎,都可以保持稳定,其最高智驾辅助状态的爆胎测试成功通突破了130km/h。

  所谓驾驶员失能辅助指的是结合DMS摄像头的多模态检测手段(手、眼、头),当判断到驾驶员处于失能状态时(比如司机睡着),采取必要的措施,优先靠边安全停车,并可以用灯语打出求援信号,将危险降到最低。

  哨兵模式在ADS4版本支持车端查看,用户可以通过手机实时查看车辆四周情况,也可以查看录像。支持车外多视角任意切换;超低时延,即点即看;对人脸、车牌信息脱敏处理,有效保护他人隐私。

  此外,还有紧急Cutin鸣笛提醒,在高速上开车遇到前车Cut-in,可以鸣笛提醒,以及ADS与XHUD结合,在雨雾、夜间、盲区等人眼看不清看不见的场景,系统提前发现危险并在HUD上增强提示;照明光毯形态可以随弯,随速、随路动态调整等等。

  车位到车位P2P 2.0版本一方面可以实现顺利通过高速ETC,跨城通勤「0」干预,一方面,车位到车位P2P转泊车代驾VPD更为顺畅,不用中断,随时随地,随走随停。

  不过哪些停车场实现VPD是一个循序渐进的过程,靳玉志表示,预计到今年6月底,支持车位到车位功能的停车场个数预计将达到50万个,其中北京、深圳、广州将超过2万个、上海将超过3万个。在用户的高频使用区域(如商超、大型小区等),能开尽开。

  今年1月份,华为泊车代驾VPD在深圳机场首发商用试点,昨天靳玉志宣布,到今年6月底,预计支持的停车场数量将突破10万个。

  此外,华为乾崑为尝鲜用户免费提供单车至高600万元的「泊车无忧」权益保障,这可以视为代客泊车险。

  在2024北京车展之前,首次露面的靳玉志曾判断2024年是L2组合驾驶辅助规模商用元年,而目前L2的发展已经超过预期,2025年,靳玉志判断L3的商用能力会开始具备。

  而为什么首先选择高速场景商用化L3,靳玉志表示,华为与行业内众多专家学者们的讨论过程中,大家一致认为高速路况相对城区而言更简单一些,从技术及政策法规等角度,循序渐进,建议优先从高速L3开始。

  但需要注意的是,近期大量的智驾事故都发生在高速场景,其中不乏车毁人亡的惨剧(《雷军和小米汽车的第一场流量危机》)。

  华为乾崑做了大量的案例分析,其中虽然可能只有1%的难例场景,但为了高安全性需要投入99%的精力去解决,比如:

  施工改道的交通隔离设备识别与可通行区域判断,比如小障碍物的识别、恶劣天气障碍物检测(包括团雾);

  还有消防车、救护车、工程抢险车等特殊车辆的识别与避让,交警及交警手势的识别,以及在极端情况下,比如系统或车辆失效时,能够自动靠边停车,这对系统的感知能力、算法能力、测试能力都提出了极高的要求。

  第一:利用华为的算法与多种传感器的深度融合能力,比如激光用来探测小目标、分布式毫米波雷达识别雨雾尘天气障碍物、高精度固态激光雷达识别近距离障碍物等,提升在高速L3场景中的环境感知能力;

  第二:利用华为的算法与整车工程的深度整合能力,比如算法与底盘的融合,在高速行驶中出现爆胎、湿滑路面等情况下仍可以保障安全,再比如算法与AR-HUD、座舱及车灯的融合,提升驾驶员的安全心理感知与车外其他车辆的安全感知能力。

  第三:利用World Engine世界引擎,在云端对天气、路况、异常情况的仿真,高可控、高密度的生成大量的高速L3难例场景训练算法,目前已经在云端完成了6亿多公里的高速L3的仿真与验证。

  这里需要提示的是,虽然华为乾崑智驾ADS 4正式发布了高速L3商用解决方案,并不意味着L3的车辆已允许上路。

  像不久前岚图汽车发布了L3的汽车架构,宁德时代甚至为了L3发布了具备冗余安全的双核电池,而此次华为乾崑智驾ADS 4 Ultra版做为首个宣称高速L3的商用解决方案,意味着只能法规放行:即允许宣称L3的车辆上路。

  不过,华为乾崑智驾这里是做为供应商出现的,它和采用他们方案的主机厂如何界定各自的责任显然也需要精细的设计。

  靳玉志提醒用户说:L3为有条件自动驾驶,驾驶员可将视线转移至非驾驶相关的活动,但保持一定的警觉性,当收到接管请求时及时进行接管。

  当然不是,华为首先喊出提供L3的解决方案,意味着封死了以L2.9999等形式回避车企和供应商责任的方式,在L2和L3之间不存在一个界限模糊的高阶智驾阶段:要么可以放手开,要么不允许放手开。

  从其宣称的「全方向、全场景、全时速、全天候、全目标」五维安全场景上,华为可谓大有一步到位的自信。

  鸿蒙智行旗下的新问界M9、M8;享界S9增程版,即将上市的尊界S800都配备了三到四颗激光雷达,先于法律法规和ADS 4完成之前做了硬件预埋,可以判断华为为L3商用早已蓄谋以久。

  而长安、小鹏、广汽、岚图也都表示在今年有相关车型落地L3,同时像蔚来eT9在设计之初即是按着自动驾驶车型来打造的。

  三位女大学生夜间驾驶一辆小米SU7引发的智驾事故,警醒了一部分车企,也惊醒了很多用户,更让大众对智驾的信任度直线下降,随后引发了监管层对智驾宣传用语、测试方法的治理和严监管。

  但换个角度看,这也正是L3落地的一个历史性契机,L3当下已不是严格意义上的技术问题,而是治理难题,同时它也是一道考试题,它需要监管部门设立严格的测评方法和流程,而并非简单的申报、备案。

  在今天开幕的上海车展将因为华为在L3上的突破而具有历史意义,在一定程度上,也意味着某些车企打着全民智驾的名义浑水摸鱼的时代结束了。

  声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。

本文地址:http://www.zibocpa.cn/qichetuixuan/2025/hwzytplncchz_L3ll_90742.html


  • 本网转载的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请联系我们进行修改或删除。