Nullmax VLA 算法深度赋能黑芝麻华山 A2000,释放高阶智驾潜能

发布时间:2026-01-06
CES 2026期间,AI科技公司 Nullmax 成功完成端到端 VLA(Vision-Language-Action)算法在黑芝麻华山 A2000上的深度适配与验证。

随着大语言模型(LLM)与视觉大模型(VLM)的快速发展,Nullmax 将 VLA 范式引入智驾领域,旨在解决传统模块化方案在智能辅助驾驶系统应对长尾驾驶场景时的局限性。目前,Nullmax VLA 算法不仅涵盖了传统的环境感知能力,更赋予了系统类人般的语义理解、逻辑推理与解释性决策能力。该算法运行帧率达到 10 Hz,依托华山 A2000 的澎湃算力,可实时响应动态道路环境变化,满足实际驾驶对低延迟与高可靠性的要求。

此次部署的VLA算法由Nullmax全栈自研,不仅融合了视觉感知、文本语义、导航指令等多模态输入,还结合大语言模型实现了高阶推理能力。依托 Nullmax 在真实道路场景中积累的海量高质量数据,该模型可在多种复杂环境下输出合理规划,不仅提升了下游模块对环境语义和驾驶意图的理解能力,也为路径规划提供了更安全、合理的决策依据。

当前,Nullmax重点聚焦三大核心能力:文本类交通规则的语义理解、潜在风险的主动推理(即防御性驾驶),以及人类自然语言指令的交互理解,旨在大幅提升智能辅助驾驶方案在复杂、长尾场景下的处理能力,并清晰解释驾驶决策背后的逻辑,以提升智驾系统的透明度与用户信任感。

在复杂语义理解(文字类交通指引) 方面,Nullmax VLA算法相较于难以处理复杂语义指令的传统算法,实现了质的突破。该算法不仅能识别环境车辆、行人、交通标志,更能深度“读懂”如“直行车辆允许进入待行区”等复杂的文字提示。算法能够即时解析文字背后的语义指令,并结合实时路况,输出符合交通法规与场景逻辑的决策建议。

面对路口遮挡形成的视觉盲区,以及隧道出入口、强逆光等光线剧烈骤变带来的感知挑战,Nullmax VLA算法在防御性驾驶(盲区风险推演)和高鲁棒性感知(极端光线突变)上都取得了优异表现。该算法能综合分析天气状况、周边车辆动态及环境细微特征,凭借卓越的推理能力和强大的泛化能力,获得高度贴近人类驾驶员预判习惯的行为逻辑——不仅关注当前状态,更主动规避潜在风险,提前给出减速、预警等防御性策略,有效应对“鬼探头”等危险场景,显著提升行车安全性与乘坐舒适性。

Nullmax持续突破视觉感知上限,进展显著。未来,Nullmax将进一步携手合作伙伴,推动实现全球不限区域的全场景自动领航辅助驾驶,覆盖城市道路、结构化道路及停车场等多样化、碎片化的应用场景,为消费者提供更舒适连贯、安全高效的驾乘体验。

媒体垂询
media@nullmax.ai