7月全量推送无图NOA理想汽车发布全新自动驾驶技术架构

北京日报客户端 2024-07-10 10:35:35

7月5日,理想汽车召开2024智能驾驶夏季发布会,宣布将于7月内向全量理想AD Max用户推送“全国都能开”的无图NOA,并将于7月内推送全自动AES(自动紧急转向系统)和全方位低速AEB(自动紧急制动系统)。同时,理想汽车发布了基于端到端模型、VLM视觉语言模型和世界模型的全新自动驾驶技术架构,并开启新架构的早鸟计划。

智能驾驶产品方面,无图NOA不再依赖高精地图或先验信息,在全国范围内的导航覆盖区域均可使用,甚至可以在更特殊的胡同窄路和乡村小路开启功能,并借助时空联合规划能力带来更丝滑的绕行体验。无图NOA也具备超远视距导航选路能力,在复杂路口依然可以顺畅通行。无图NOA充分考虑用户心理安全边界,用分米级微操带来默契安心的智驾体验。通过激光雷达与视觉前融合的占用网络,车辆可以识别更大范围内的不规则障碍物,感知精度也更高,从而对其他交通参与者的行为实现更早、更准确的预判。

理想汽车产品部高级副总裁范皓宇表示:“从今年5月推送首批千名体验用户,到6月将体验用户规模扩展至万人以上,我们已经在全国各地积累了超百万公里的无图NOA行驶里程。无图NOA全量推送后,24万名理想AD Max车主都将用上当前国内领先的智能驾驶产品,这是一项诚意满满的升级。”

为了应对AEB也无法规避事故的物理极限场景,理想汽车推出了全自动触发的AES自动紧急转向功能。AES功能可以实现不依赖人辅助的全自动触发,无需人为参与转向操作,自动紧急转向,规避更多高危事故风险。全方位低速AEB则再次拓展主动安全风险场景,能够有效识别前向、后向和侧向的碰撞风险,及时紧急制动,有效减少低速挪车场景的高频剐蹭事故发生。

自动驾驶技术方面,新架构由端到端模型、VLM视觉语言模型和世界模型共同构成。端到端模型用于处理常规的驾驶行为,输入主要由摄像头和激光雷达构成,从传感器输入到行驶轨迹输出只经过一个模型,信息传递、推理计算和模型迭代更高效,驾驶行为更拟人。VLM视觉语言模型具备强大的逻辑思考能力,可以理解复杂路况、导航地图和交通规则,应对高难度的未知场景,VLM视觉语言模型参数量达到22亿,对物理世界的复杂交通环境具有强大的理解能力,即使面对首次经历的未知场景也能自如应对。

同时,自动驾驶系统将在基于世界模型构建的虚拟环境中进行能力学习和测试。世界模型结合重建和生成两种路径,构建的测试场景既符合真实规律,也兼具优秀的泛化能力。

理想汽车智能驾驶研发副总裁郎咸朋表示:“我们结合端到端模型和VLM视觉语言模型,带来了业界首个在车端部署双系统的方案,也首次将VLM视觉语言模型成功部署在车端芯片上,这套业内领先的全新架构是自动驾驶领域里程碑式的技术突破。”

0 阅读:10
评论列表
  • 2024-07-10 14:09

    目前任何智能驾驶都是小白鼠阶段