随着大语言模型(LLM)与视觉大模型(VLM)的快速发展,Nullmax 将 VLA 范式引入智驾领域,旨在解决传统模块化方案在智能辅助驾驶系统应对长尾驾驶场景时的局限性。目前,Nullmax VLA 算法不仅涵盖了传统的环境感知能力,更赋予了系统类人般的语义理解、逻辑推理与解释性决策能力。该算法运行帧率达到 10 Hz,依托华山 A2000 的澎湃算力,可实时响应动态道路环境变化,满足实际驾驶对低延迟与高可靠性的要求。
此次部署的VLA算法由Nullmax全栈自研,不仅融合了视觉感知、文本语义、导航指令等多模态输入,还结合大语言模型实现了高阶推理能力。依托 Nullmax 在真实道路场景中积累的海量高质量数据,该模型可在多种复杂环境下输出合理规划,不仅提升了下游模块对环境语义和驾驶意图的理解能力,也为路径规划提供了更安全、合理的决策依据。
当前,Nullmax重点聚焦三大核心能力:文本类交通规则的语义理解、潜在风险的主动推理(即防御性驾驶),以及人类自然语言指令的交互理解,旨在大幅提升智能辅助驾驶方案在复杂、长尾场景下的处理能力,并清晰解释驾驶决策背后的逻辑,以提升智驾系统的透明度与用户信任感。
在复杂语义理解(文字类交通指引) 方面,Nullmax VLA算法相较于难以处理复杂语义指令的传统算法,实现了质的突破。该算法不仅能识别环境车辆、行人、交通标志,更能深度“读懂”如“直行车辆允许进入待行区”等复杂的文字提示。算法能够即时解析文字背后的语义指令,并结合实时路况,输出符合交通法规与场景逻辑的决策建议。
Nullmax持续突破视觉感知上限,进展显著。未来,Nullmax将进一步携手合作伙伴,推动实现全球不限区域的全场景自动领航辅助驾驶,覆盖城市道路、结构化道路及停车场等多样化、碎片化的应用场景,为消费者提供更舒适连贯、安全高效的驾乘体验。