技术模型创新 - 公司首次提出包含自车和他车轨迹的驾驶世界模型,旨在更逼真地模拟自车与驾驶场景的交互,并能通过改变自车-他车轨迹生成多样化的新颖场景[1][8] - 为解决缺乏交互性、特征分布不匹配和空间映射困难三大缺陷,公司提出EOT-WM模型,将轨迹点投影到图像坐标系并在空白视频上绘制轨迹,生成用于学习的轨迹视频,实现统一视觉模态[6] - 采用时空变分自编码器对场景视频和轨迹视频进行编码,获得共享特征空间的场景视频隐变量和轨迹隐变量,确保时空对齐[7] 模型架构与训练 - 预训练阶段在云端训练32B视觉语言基座模型,包含3D视觉、高清2D视觉以及驾驶相关语料,随后蒸馏成3.2B的MoE模型以适应车端算力[1] - 后训练阶段引入action将模型转化为视觉语言行动模型,参数量接近4B,采用短链条思维链并利用扩散模型对未来4-8秒的轨迹和环境进行预测[1] - 强化学习阶段包含人类反馈强化学习和不依赖人类反馈的纯强化学习,基于舒适性、无碰撞、遵守交规三大指标自我进化,目标驾驶水平超越人类[1] 模型控制与评估 - 设计注入轨迹的扩散Transformer,将轨迹隐变量提供的运动引导集成到视频隐变量中,以便更精确地对噪声视频隐变量进行去噪[7][9] - 整个模型可在文本和轨迹控制下基于给定初始帧预测未来帧,并提出基于控制隐变量相似度的指标用于比较预测轨迹隐变量与真值轨迹隐变量[7][9] - 与GEM模型和英伟达Cosmos模型对比,指出GEM模型使用未来物体特征和人体姿态不切实际,Cosmos模型参数量达70亿以上且推理训练成本高昂[5] 研究进展与发布 - 驾驶世界模型论文第一版于2025年3月12日发布,AAAI 2026会议录用版于2025年11月19日发布[2] - 论文第三版于2025年7月31日发布,新增作者并担任项目负责人,同时移除另一位作者,增加对GEM模型和英伟达Cosmos模型的讨论[5] - 论文第四版主要根据AAAI排版要求进行微调和双栏排版,各项量化实验结果与第一版保持一致[5]
理想提出首个包含自车和他车轨迹的世界模型