群发资讯网

小米新SU7辅助驾驶升级XLA大模型嗯,我米的 XLA 大模型要在 新一代小米S

小米新SU7辅助驾驶升级XLA大模型

嗯,我米的 XLA 大模型要在 新一代小米SU7上车发布了。

回顾过去两年,小米的辅助驾驶路线其实走得一直都比较稳妥,从 2024 年依靠高精地图的规则驱动,到 2025 年依靠数据量的端到端(包括 300 万 Clips 和 1000 万 Clips 的版本),再到认知驱动的世界模型+强化学习的端到端路线 Xiaomi HAD 增强版,其实每次都会把当前路线优化到底、保实际体验;而不会去特别激进的去切新路线,最终都为了实际的用户体验。

那现在,全新的XLA 路线来了,将在新一代小米SU7 首次上车发布。它在用户体验上有哪些优势?

首先不得不说的就是,XLA 认知大模型是什么?这是小米新一代端到端辅助驾驶大模型+架构,是小米HAD增强版的又一次进化,主打全链路端到端、具身认知、拟人决策、全域覆盖。小米XLA = 端到端大模型+MiMo具身认知+动作专家,把感知、预测、规划、控制整合成一个统一神经网络,直接从传感器输入输出驾驶轨迹,减少中间模块损耗。

XLA不只是更新一个名字,而是融合AI 大模型的全新辅助驾驶路线。新一代 SU7 将在 3 月 19 日正式发布、全系交付即搭载升级后的 Xiaomi HAD 辅助驾驶,核心就是这次全新升级的 XLA 认知大模型。XLA 认知大模型首次打通“辅助驾驶”和“具身机器人”两大任务,引入多模态输入,并融合小米自研的 MiMo-Embodied 具身基座模型。对于辅助驾驶来说,它不只是“看见路”,而是“理解路、判断路、处理路”。

现在辅助驾驶的竞争,已经从“摄像头多少颗、激光雷达有没有、芯片算力高不高”这种简单比硬件的路线转向系统的综合能力,也就是系统在复杂场景里能不能像人一样做综合理解、判断、处理。小米此前对自家端到端架构的定义其实讲得很清楚:把感知、预测、规划三步合一,直接输出最终轨迹;同时从过去更偏“模仿学习”,转向“裁判式多选项优选”,也就是瞬间生成多种应对方案,再选一个更优解。而现在全新引入的 XLA 认知大模型和多模态输入,会让小米HAD辅助驾驶继续往“更会理解、更会取舍”这个方向走。说白了,辅助驾驶要想继续进步,核心不是只会“开”,而是得更会“想”。

如果再回顾小米的辅助驾驶路线,你会发现他们在路线选择上具有相当的延续性和稳定性。小米不是今天突然拍脑袋看行业这玩意火了就说要做认知大模型,而是一直在相关技术上就有所储备和迭代。

·2024 年底,小米 SU7 的 1.4.5 OTA 就已经正式接入 VLM 视觉语言大模型,开始能识别施工区域、积水路段、公交车道等特殊路况和交通规则,同时优化掉头、拥堵变道、路口选道这些高频难点;·2025 年 7 月,Xiaomi HAD 端到端辅助驾驶1000 万 Clips 版本上车,纵向舒适度提升 57%、绕行成功率提升 67%、路口通过率提升 23%;·再到 2025 年广州车展,Xiaomi HAD 增强版又引入了强化学习和世界模型,安全辅助还补上了更多 AEB 能力和 AES 紧急转向辅助。·今天的 XLA 认知大模型,其实更像是前面几步累起来之后,顺理成章的一次“认知层”跃升——用 Mimo 具身认知 来搞辅助驾驶,把感知、预测、规划、控制整合成一个统一神经网络。

你会发现到今天,小米的 AI 家底已经开始反哺造车了。 以前可能很多人会觉得小米做大模型、做 AI、做机器人,和汽车是平行线不相干,盘子大了还容易互相打架;但到XLA 辅助驾驶这一步,背后就融合了小米集团的 MiMo-Embodied 具身基座模型,把集团战略资源彻底打通。这次升级还标志着小米 HAD 首次打通辅助驾驶和具身机器人两大任务,再结合小米此前已经开源 MiMo-Embodied、明确提出它是打通自动驾驶与具身智能的跨域基座模型,这条技术线已经很清楚了:不是把几个热门词拼在一起,而是把“感知—理解—决策”的底层能力直接打通!对汽车来说,这种打通的价值,可能比单一场景刷一个漂亮成绩更重要。

再说用户最关心的体验。普通人其实没那么在意你叫 VLM、世界模型还是 XLA,大家只在意一件事:通勤是不是更顺了,复杂路况是不是更像老司机了、智驾开起来是不是更舒服了。真正容易暴露系统差距的,从来都不是空旷大道,而是施工改道、环岛、连续路口、连续跨车道、掉头、拥堵混行这些又碎又烦的场景。小米之前就已经把“窄路/环岛通行”“车位到车位”“停车场寻位泊车辅助”摆在了端到端能力的展示重点里,而1000 万 Clips 阶段又重点优化了绕行、路口通过、加减速舒适性;这次 XLA 又把关键词进一步推到了“复杂场景理解推理能力”“决策更可控、更拟人”。所以新版本最能打动人的,不会是某个 PPT 参数,而是这些高频难题场景终于开起来更顺了、没那么拧巴了——换言之就是用户体验更好了。

“安心感”也是值得单拎出来说的点。过去很多辅助驾驶给人的别扭感,不一定是因为它不会开,而是它有时候太机械:看到障碍就猛收、该果断时犹豫、该保守时又不够稳。现在 XLA 引入多模态输入,意味着它判断一件事不会只是再只盯着单一传感器或单一规则,而是拿到更多维度的信息做理解和推理。官方的表述是“决策更可控、更拟人,行驶更安心、更从容”,在逻辑上就是「输入信息更丰富,认知更完整,动作自然就更有机会摆脱那种“会做题但不会应变”的生硬感」。尤其是在复杂中国道路环境里,这种安心感,往往比某一次极限炫技更有价值。

另外,这次高低配辅助驾驶能力完全相同。新一代 SU7 全系标配激光雷达、700TOPS 辅助驾驶算力、4D 毫米波雷达和 Xiaomi HAD 端到端辅助驾驶,3 月 18 日又确认全系交付即搭载 XLA 认知大模型。小米想把这套高阶能力做成更大范围用户都能用到的东西,而不是只给顶配做门面,又或是搞成什么单独的收费功能。都没有,买车就能免费用,还有后续的升级维护越来越好开。

当然,客观说,小米这条路走得快,不代表已经没有提升空间。雷总今天的说法是,小米智驾团队过去 2 年发布了 3 个大版本更新,等于走过了很多同行 5 年、甚至 10 年走的路。这个表述肯定带有很强的小米主观视角,但客观上反应小米的迭代节奏确实快。 更重要的是,这种快不是“喊口号的快”,背后是真金白银的投入。公开信息显示,小米在智能驾驶领域首期投资 57.9 亿元,团队规模超 1800 人、测试车超 400 台;到 2025 年广州车展时,官方又披露 AI 领域研发投入超 70 亿元,智驾团队博士已达 108 人。对一个造车时间并不长的玩家来说,这种投入强度和决心,至少说明它不是把辅助驾驶当成“宣传上的配菜”,而是当成“长期的主菜”,也就是小米汽车的长期规划和路线在做。

但无论智驾再牛逼,还是要注意辅助驾驶不是自动驾驶!!!小米相当注意辅助驾驶安全,包括官网、发布会上、日常的宣发中都明确提醒,驾驶员必须全程保持注意力,随时准备接管,不能把辅助驾驶当做自动驾驶开!真正成熟的辅助驾驶,最终拼的不是某一次惊艳,而是 100 次、1000 次日常通勤里都尽量稳。

总结这次小米新 SU7 的辅助驾驶升级,它最值得关注的是小米把辅助驾驶的“认知”正儿八经地往前推了一大步。过去从 VLM、1000 万 Clips、世界模型,到今天的 XLA 认知大模型,这条路线越来越清晰;而全系标配的做法,也让这件事不只是实验室里的炫技,而是真正面向用户的能力下放。小米离智驾“彻底毕业”当然还早,但已经领先行业主流水平,成为 TOP 级竞争选手。

在 2026 年,小米的智驾能力会更值得期待。