4月23日,博泰车联与NVIDIA及某头部OEM新能源车企达成一系列深度合作。公司正加速推动“大模型上车”从技术验证走向规模化量产,在AI车载大模型落地及高阶算力平台应用方面取得实质性进展。

随着汽车智能化进入“AI定义”深水区,L3/L4级智驾落地推动算力需求指数级增长。尽管“端云协同”已成共识,但端侧AI仍受限于原车芯片算力及模型性能等因素,难以支撑复杂功能的持续迭代与新场景应对。
基于对这一趋势的深刻洞察,博泰车联将基于NVIDIA DRIVE AGX Thor加速计算平台,开发车端大模型解决方案,并将AI BOX落地于该平台,为下一代AI大模型的车端部署提供高性能算力支撑。由此,在汽车领域,博泰车联将成为国内乃至全球范围内与该芯片达成合作并实现量产案例的、具备“软硬”一体能力的AI应用公司。同时,亦为本公司智能驾驶解决方案的全球化布局筑牢坚实根基。
得益于与NVIDIA在NVIDIA DRIVE AGX Thor加速计算平台的合作具备极强的通用性,基于该平台开发的AI BOX方案可快速落地于主流车企的智能汽车项目。
同时,博泰车联获得某头部OEM新能源车企新一代智能车型的定点通知,该项目是全球首个由博泰主导提供AI BOX“软硬”一体化解决方案,并实现字节跳动旗下AI通用大模型与博泰基于多年车机端用户运营经验所建立的端侧大模型在车端深度耦合的AI商业化应用案例。

此次获得定点,证实了公司在AI车载大模型落地及高阶算力平台应用方面已取得实质性进展。目前,博泰与项目合作方已围绕车端“物理AI”、“AI智能体”、“AI情感智能体”等前沿场景展开布局,探索算力收费、车载Tokens计费等创新商业模式,致力成为全球“车端Tokens经济”的领军者。
博泰AI BOX作为智能汽车的“第二大脑”与“算力外挂”,基于NVIDIA DRIVE AGX Thor加速计算平台打造,以AI情感智能体为核心交互载体,打造可量产的车规级平台智能体,核心功能规划如下:
算力支撑上,产品在NVFP4精度下算力高达720 TOPS,搭配 273GB/s 超高带宽 LPDDR5X 方案,依托NVIDIA GPU 原生并行推理能力,可支撑主流大模型及Harness Agent端侧全量稳定运行;端云一体双擎架构破解传统车机核心痛点,保障无网或弱网场景AI功能稳定运行,实现敏感数据本地闭环的全链路安全。
生态适配与部署上,全面兼容多架构主流大模型,可稳定运行14B多模态模型,率先实现30B全模态OmniMoE模型端侧适配;开放生态支持模型导入、推理流水线化作业,最新发布的模型可实现当天部署,为Harness Agent的规模化上车提供了完美的运行环境。
场景与架构适配层面,具备高并发多智能体任务调度能力,可从容应对复杂座舱环境下的多元AI需求,以AI情感智能体为核心构建全场景座舱体系,四大智能体矩阵覆盖全出行周期。
从芯片巨头到全球顶尖车企,从技术突破到生态协同,从本土领跑到全球竞逐,博泰车联正以AI为引擎,凭借深厚的技术转化能力、规模化量产经验及车规级品质管理体系,持续巩固在智能汽车产业链以及AI应用领域中的核心站位。在高端化与全球化的驱动下,公司正加速向“AI定义汽车”时代的关键角色演进。