Workflow
自动驾驶之心
icon
搜索文档
70K?端到端VLA现在这么吃香!?
自动驾驶之心· 2025-07-21 19:18
端到端自动驾驶技术发展 - 端到端自动驾驶已成为国内主流新能源主机厂抢占的技术高地 上半年VLA概念掀起新一轮量产方案迭代 [2] - 行业薪资水平显示:3-5年经验的VLM/VLA算法专家年薪达百万 月薪高达70K [2] - 技术流派分化明显:二段式端到端以PLUTO为代表 一段式分为感知型(UniAD)、世界模型型(OccWorld)、扩散模型型(DiffusionDrive)等四大方向 [4] 技术流派与前沿进展 - 二段式端到端聚焦模型自车规划 包含港科技PLUTO、浙大CarPlanner(CVPR'25)、中科院Plan-R1等代表性工作 [7][22] - 一段式端到端四大子领域: - 感知型:UniAD为奠基作 地平线VAD和CVPR'24的PARA-Drive为最新进展 [23] - 世界模型型:AAAI'25的Drive-OccWorld和复旦OccLLaMA实现场景生成/端到端/闭环仿真多应用 [23] - 扩散模型型:DiffusionDrive开创多模轨迹时代 吉大DiffE2E为最新成果 [23] - VLA型:小米ORION、慕尼黑工大OpenDriveVLA和ReCogDrive代表大模型时代技术方向 [23] 行业人才需求 - VLA/VLM算法专家岗位需求旺盛: - 3-5年经验硕士薪资40-70K·15薪 [10] - 多模态方向博士应届生可达90-120K·16薪 [10] - 模型量化部署工程师1-3年经验薪资40-60K·15薪 [10] - 技术能力要求涵盖大语言模型 BEV感知 扩散模型 强化学习与RLHF等跨领域知识 [7][15] 技术培训体系 - 课程体系覆盖五大模块: - 端到端发展历史与VLA范式演变 [21] - 核心技术栈包括Transformer/CLIP/LLAVA/BEV感知/扩散模型理论 [24] - 二段式与一段式技术对比及工业落地 [22][23] - RLHF微调实战与大模型强化学习应用 [25] - 教学采用Just-in-Time Learning理念 三个月完成从理论到实践的闭环训练 [16][17][18][30] 技术门槛与挑战 - 学习路径需同时掌握多模态大模型 BEV感知 视觉Transformer 扩散模型等六大技术领域 [15] - 论文数量繁多且知识碎片化 高质量文档稀缺导致入门难度高 [15] - 硬件要求需配备4090及以上算力GPU 需具备Transformer和PyTorch基础 [32]
SceneDiffuser++:基于生成世界模型的城市规模交通仿真(CVPR'25)
自动驾驶之心· 2025-07-21 19:18
技术突破 - 提出首个端到端生成式世界模型SceneDiffuser++,通过单一损失函数训练实现60秒城市级交通仿真,整合场景生成、代理行为建模、遮挡推理和环境仿真等多项技术 [1][2] - 采用多张量扩散方法,将代理和交通灯等异质元素投影到统一潜在空间,通过Transformer骨干网络进行联合去噪处理,支持异质元素的联合仿真 [4][7] - 引入软剪辑策略稳定稀疏张量生成,避免硬剪辑导致的不自然跳跃,确保代理生成和移除的平滑性,综合性能优于硬剪辑和无剪辑方案 [5][17] 性能表现 - 在WOMD-XLMap数据集上评估,SceneDiffuser++在所有指标上优于IDM和SceneDiffuser,例如当IDM作为规划器时,生成代理数量的JS散度为0.1947,远低于IDM的0.6357和SceneDiffuser的0.7027 [12] - 交通灯状态转换概率与真实数据高度一致,而IDM和SceneDiffuser不支持交通灯仿真,在60秒长时仿真中能保持代理动态性和交通灯合理性 [12][15] - 随仿真时长从30秒增加到300秒,误差累积导致部分指标下降,但代理生成和移除的位置合理性仍保持稳定 [18] 行业应用 - 实现行程级仿真(trip-level),处理更长时间的动态变化,包括初始代理离开视野、新代理无缝进入和交通灯状态随路线动态更新,避免仿真漂移问题 [2][3] - 将不同仿真任务统一为修复任务,包括行为预测和场景生成,通过随机掩码增强模型的可控性,支持公里级路线的长时仿真 [10][11] - 提出CitySim概念,明确生成式仿真城市的需求与挑战,设计统一生成式框架整合代理动态生成、遮挡推理和交通灯仿真 [1][19]
研究生入学,老板让手搓一辆自动驾驶小车。。。
自动驾驶之心· 2025-07-21 19:18
产品概述 - 黑武士001是自动驾驶之心团队推出的教研一体轻量级解决方案,支持感知、定位、融合、导航、规划等多个功能平台,采用阿克曼底盘 [3] - 产品原价35999元,当前支付定金1000元可抵扣2000元,订单已启动优先安排组装发货 [2] - 目标用户包括本科生学习进阶/比赛、研究生科研/发论文/找工作、高校实验室教具、培训机构教具等场景 [6] 硬件配置 - 主要传感器包括:Mid 360 3D激光雷达(FOV360°×59°,范围0.1-40m)、镭神智能2D激光雷达(最大范围25m)、奥比中光深度相机(测量范围0.15-5m,精度≤2%)[10][18] - 主控芯片采用Nvidia Orin NX 16G,配备1080p显示器,底盘为阿克曼结构系统[10] - 车体参数:重量30kg,尺寸620×400×320mm,续航>4小时,最大速度2m/s,采用24V供电系统[12] 软件功能 - 开发框架基于ROS、C++、Python,支持一键启动并提供完整开发环境[14] - 功能覆盖2D/3D目标检测与分割、多模态SLAM(视觉/激光/惯性)、点云处理、车辆导航避障等15+方向[15] - 深度相机驱动节点可发布RGB图像(1280×800@30fps)、深度图像及相机内参数据[29] 应用场景 - 测试场景覆盖室内地库(2D/3D建图)、户外公园、夜间行驶、上下坡等复杂环境[4][7][8][9][10] - 教学应用包括语义SLAM、人体位姿估计、深度测量、多传感器融合等科研方向[15][18] - 提供手柄遥控功能,可通过修改YAML参数调整最大线速度(scale_linear)和角速度(scale_angular)[32] 产品服务 - 提供完整硬件配置说明、软件启动指南及产品说明书[17][20][24] - 售后支持1年非人为损坏保修,人为损坏提供付费维修服务[37]
还不知道研究方向?别人已经在卷VLA了......
自动驾驶之心· 2025-07-21 13:18
自动驾驶技术演进 - 传统模块化架构存在错误累积效应和信息损失问题,依赖人工规则难以应对复杂场景 [2] - 纯视觉端到端模型简化架构但存在黑箱问题和泛化能力限制,如NVIDIA DAVE-2和Wayve的模仿学习方案 [2] - VLA范式通过语言桥梁结合视觉与行为,提升可解释性并注入LLM的世界知识,解决长尾场景处理难题 [2][3] VLA模型核心优势 - 实现自然语言决策解释(如减速原因分析),增强系统透明度 [2] - 利用LLM预训练的常识理解复杂场景(如施工区域需慢行) [3] - 支持自然语言交互(如"找充电站"指令),推动人性化驾驶体验 [3] 科研辅导课程设计 - 12周在线科研+2周论文指导+10周维护期,覆盖经典与前沿论文分析及代码实践 [6] - 提供baseline代码(如DiffusionDrive、OpenDriveVLA等)和公开数据集(nuScenes、Waymo) [15][17] - 采用"2+1"多师制团队,主导师为名校教授,副导师为博士/硕士,配备督学班主任 [14] 学员能力培养目标 - 掌握VLA算法理论与创新思路,完成论文初稿 [12] - 获得选题方法、实验设计及投稿建议,强化PyTorch和Python实战能力 [7][13] - 基础要求包括深度学习基础、自动驾驶算法了解及8张4090显卡硬件配置 [13] 关键学术资源 - 必读论文包括Senna、OpenDriveVLA等5篇顶会论文,聚焦VLA与自动驾驶结合 [18] - 课程产出含结业证书、推荐信及论文初稿,助力留学申请与职业发展 [14]
自动驾驶论文速递 | 世界模型、端到端、VLM/VLA、强化学习等~
自动驾驶之心· 2025-07-21 12:14
Orbis模型技术突破 - 弗莱堡大学提出基于流匹配的连续自回归世界模型Orbis,在仅使用280小时单目视频数据和4.69亿参数条件下实现长时程预测性能突破 [1] - 在nuPlan数据集上FVD指标降至132.25(6秒预测),转弯场景轨迹精度(Frechet Precision)提升至0.47 [1] - 设计混合离散-连续tokenizer实现两种建模方法的公平对比,发现连续建模在长视野预测中显著优于离散建模 [2] - 模型在复杂驾驶场景(如转弯、城市交通)中表现突出,超越Cosmos、Vista等基线模型 [6][8] LaViPlan框架创新 - ETRI团队提出基于可验证奖励强化学习(RLVR)的语言引导视觉路径规划框架 [12] - 在ROADWork数据集上将轨迹预测ADE降低19.91%(Easy场景)和14.67%(Hard场景) [12] - RLVR使模型输出从语言忠实性转向功能准确的轨迹,揭示语义相似性与任务特定推理间的权衡 [14] - 相比监督微调需显著更少的训练样本,在强化阶段纳入硬案例能实现更好的泛化能力 [15] 世界模型驱动的场景生成 - 澳门大学团队提出世界模型驱动的驾驶场景生成框架与增强动态图卷积网络 [23] - 在DAD数据集上实现83.2% AP(提升7.0%)和3.99秒mTTA(提升9.1%) [23] - 发布包含4800样本的AoTA数据集,环境因素分布比DAD数据集更平衡 [32] - 利用视觉语言模型提取事故相关领域特征,生成保留原始特征分布的合成场景 [28] ReAL-AD类人推理框架 - 上海科大与港中文提出通过视觉语言模型驱动三层人类认知决策的端到端自动驾驶框架 [33] - 在nuScenes和Bench2Drive数据集上将规划精度(L2误差)提升33%、碰撞率降低32% [33] - 驾驶安全分数提升至41.17,战略推理注入器构建高层驾驶策略,战术推理整合器细化战术选择 [39][42] - 分层轨迹解码器将战术决策转化为精确控制动作,验证了各组件的有效性 [39]
秋招上岸小厂,心满意足了。。。
自动驾驶之心· 2025-07-20 20:47
行业现状与趋势 - 自动驾驶和具身智能成为AI技术发展的主线 支撑了近一半的技术路线和融资金额 [2] - 行业从L2到L4功能逐步量产 人形机器人及四足机械狗等具身智能产品实现复杂动作 [2] - 自动驾驶行业趋于饱和 2023年校招竞争激烈 部分求职者直至10月仍未获offer [2] 求职社区服务 - AutoRobo知识星球成立半年 专注自动驾驶、具身智能、机器人领域求职 成员近1000人 [2] - 社区覆盖地平线、理想汽车、华为、小米汽车等企业员工及2024-2025届校招求职者 [2] - 提供面试题库、面经、行业研报、谈薪技巧、内推资源及简历优化等全链条求职服务 [3][4][9][17][21][24] 技术领域细分资源 自动驾驶方向 - 毫米波视觉融合、4D雷达量产、BEV感知等10大专题 每专题含100个实战问题 [10] - 覆盖传感器标定、多模态目标检测、CUDA部署等关键技术节点 [10] 具身智能方向 - 包含VLA(视觉语言导航)、Diffusion Policy等前沿技术面试题库 [11][14] - 提供人形机器人量产硬件、技术路线及创投趋势等深度研报 [15][19] 实战案例库 - 整理滴滴、英伟达、美团等20+企业面经 涵盖算法、SLAM、产品等岗位 [20] - 收录决策规划控制、行为预测等岗位从一面到三面的完整面试流程 [20] - 汇总转行经验、面试官建议、谈薪策略等非技术类求职技巧 [24] 行业认知工具 - 发布《世界机器人报告》《中国人形机器人发展蓝皮书》等权威行业分析 [15][19] - 研报内容覆盖产业链上下游、技术发展状态及市场前景研判 [15][19] 会员服务价值 - 每日成本0.3元 提供岗位匹配、企业直推等高效求职解决方案 [25]
面试了很多端到端候选人,还是有很多人搞不清楚。。。
自动驾驶之心· 2025-07-20 16:36
端到端自动驾驶技术概述 - 端到端自动驾驶分为一段式端到端和二段式端到端两大技术方向 是当前薪资最高的算法岗位之一 3-5年经验可冲击百万年薪 [2] - 核心优势在于直接从传感器输入到车辆规划/控制信息的直接建模 避免了传统模块化方法的误差累积 BEV感知技术实现了模块间的统一视角 [2] - UniAD模型统一了感知和规划任务 标志着端到端时代的来临 但并非最终解决方案 后续涌现出多种技术流派 [2][4] 主要技术流派 - **二段式端到端**:以PLUTO为代表 专注于用模型实现自车规划 [4] - **一段式端到端**: - 基于感知的方法:以UniAD为代表持续发展 [4] - 基于世界模型的方法:以OccWorld为代表开创新流派 [4] - 基于扩散模型的方法:以DiffusionDrive为代表实现多模轨迹预测 [4] - **VLA方向**:大模型时代下的端到端新方向 结合视觉语言模型技术 [4][22] 行业应用与人才需求 - VLA/VLM大模型算法专家岗位薪资达40-70K*15薪 博士应届生可达90-120K*16薪 [9] - 技术岗位覆盖感知算法、模型量化部署等多方向 实习岗位日薪220-400元 [9] - 主机厂已开展端到端算法预研和量产交付 形成完整技术落地闭环 [25] 技术发展挑战 - 需同时掌握多模态大模型、BEV感知、强化学习、扩散模型等跨领域知识 [14] - 论文数量繁多且知识碎片化 缺乏系统性学习框架和实战指导 [14] - 高质量文档稀缺 提高了技术入门门槛 [14] 课程体系设计 - **知识框架**:覆盖BEV感知、扩散模型理论、强化学习与RLHF等核心技术栈 [6][23] - **案例研究**: - 二段式端到端解析PLUTO、CarPlanner等经典算法 [21] - 一段式端到端深入UniAD、OccLLaMA等前沿工作 [22] - **实战环节**: - 扩散模型轨迹预测实战Diffusion Planner [22] - VLA方向实战小米ORION开源框架 [22] - 大作业RLHF微调实现技术迁移应用 [24] 技术发展趋势 - 世界模型应用扩展至场景生成、闭环仿真等多场景 成为近年研究热点 [22] - 扩散模型与VLM结合推动多模轨迹预测技术落地 [22] - VLA被视为端到端自动驾驶的"皇冠" 工业界招聘需求旺盛 [22]
SpatialTrackerV2:开源前馈式可扩展的3D点追踪方法
自动驾驶之心· 2025-07-20 16:36
三维点追踪技术现状 - 三维点追踪技术从单目视频中恢复任意点的长期三维轨迹,在机器人、视频生成及三维/四维重建中展现潜力[4] - 相比参数化运动模型(如SMPL、骨架等),该技术具有更强灵活性与泛化能力[4] - 现有方案依赖光流与单目深度估计等低/中层视觉模型,优化式方法计算成本高昂,前馈模型受限于真实三维轨迹监督数据[6] SpatialTrackerV2核心创新 - 将三维点追踪分解为视频深度、相机自运动与物体运动三部分,构建完全可微的多源异构数据联合训练流程[7] - 采用前端-后端架构:前端通过视频深度估计器和位姿初始化器生成深度图与粗略相机轨迹,后端通过SyncFormer模块实现二维/三维轨迹联合优化[7][11] - SyncFormer模块采用双分支交叉注意力结构,分别处理二维/三维特征并通过交叉注意力层同步更新,减少特征干扰[30] 技术实现细节 - 前端深度预测引入尺度-偏移回归模块,通过投影一致性损失校正深度与姿态的尺度歧义[15][16] - 后端捆绑优化包含重投影误差、几何一致性损失、动态性约束损失及正则项,总损失函数驱动相机位姿与轨迹迭代更新[24][25][26][28] - 动态性与可见性分数通过轻量级网络预测,用于加权优化过程[23] 性能表现 - 在TAPVid-3D基准达到21.2 AJ和31.0 APD3D,较DELTA提升61.8%与50.5%[9] - 视频深度指标AbsRel为0.081(行业最优0.093),01.25指标达0.910,超越MegaSAM等动态重建方法[32] - 相机位姿估计在TUM-dynamic数据集ATE为0.012,优于MegaSAM的0.013,推理速度快50倍[35][9] 应用与扩展性 - 支持17个异构数据集联合训练,包括RGB-D数据集的深度/姿态一致性约束和普通视频的姿态-轨迹一致性约束[8] - 在互联网随手拍视频中展现鲁棒性,为运动理解和物理智能提供基础[37] - 开源Demo可通过Hugging Face体验,技术细节见论文《SpatialTrackerV2: 3D Point Tracking Made Easy》[8]
港中文最新!ReAL-AD:迈向类人推理的端到端自动驾驶,轨迹性能提升30%(ICCV'25)
自动驾驶之心· 2025-07-20 16:36
核心观点 - 提出ReAL-AD框架,通过三层人类认知模型(驾驶策略、驾驶决策、驾驶操作)实现类人推理的端到端自动驾驶 [2][8] - 集成视觉-语言模型(VLMs)增强环境感知和结构化推理能力,规划准确性和安全性提升超过30% [2][11][34] - 采用层次化轨迹解码器实现从粗到细的轨迹规划,L2误差减少33%,碰撞率降低32% [9][34] 技术架构 - **策略推理注入器**:解析VLM生成的交通情境见解,制定高层次驾驶策略 [8][17] - **驾驶推理整合器**:将战略意图细化为可解释的驾驶选择(如变道、超车、速度调整) [8][20] - **层次化轨迹解码器**:两阶段变分解码器,先建立粗略运动模式再细化轨迹 [24][26] 实验验证 - **数据集**:NuScenes(1,000个20秒场景)和Bench2Drive(13,638片段/200万帧) [30] - **开环指标**:平均L2误差0.48米(NuScenes)、0.84米(Bench2Drive),碰撞率0.15%/0.12% [34] - **闭环指标**:驾驶评分提升至41.17,成功率11.36%,优于基线模型UniAD/VAD [35] 行业对比 - **传统方法局限**:依赖固定稀疏轨迹监督,无法模拟人类分层决策过程 [3][7] - **现有VLM应用**:多作为辅助模块提供语义线索,缺乏与决策层次的有机整合 [5][12] - **创新点**:首次将VLM推理嵌入三层决策架构,实现战略-战术-操作的全链路协同 [8][11] 性能优化 - **消融实验**:移除战略推理注入器导致L2误差增加12%,碰撞率上升19% [36] - **解码器设计**:两层结构比单层L2误差降低0.14米,三层会引入过拟合 [39] - **损失函数**:相似性损失有效弥合文本特征与轨迹预测特征的模态差距 [38]
大模型面经 - 快手快 Star
自动驾驶之心· 2025-07-20 16:36
面试流程与内容 - 一面重点考察论文细节和基础能力,涉及代码题(32 最长有效括号)和概率题 [2] - 二面继续深入探讨论文,增加场景题考察方案完善能力 [4] - 三面侧重知识广度,涵盖多模态大模型技术(BLIP-2/Qwen-VL的Learnable Query、KV Cache、后训练差异)、计算机视觉(SAM编码机制)、概率题(扑克牌花色概率)和场景设计题(直播间商品识别) [5] - 四面为答辩环节,聚焦业务理解和职业规划,需串联过往经历形成主线 [6] 技术考察重点 - 多模态大模型:关注主流范式(BLIP-2/Qwen-VL架构演进)、训练优化技术(LoRA矩阵初始化、DeepSpeed三阶段优化)、动态分辨率实现 [5] - 计算机视觉:深入探讨Diffusion与DETR结合、SAM的多模态prompt编码机制 [5] - 工程实践:涉及大模型部署(KV Cache)、推荐系统排序算法、多模态RAG应用 [5] 学习资源与社区 - 提供30+自动驾驶技术栈学习路线,覆盖感知(BEV/Occupancy/多传感器融合)、定位建图(SLAM/高精地图)、规划控制等领域 [7] - 知识星球包含近4000人社区,300+企业与科研机构参与,提供端到端自动驾驶、大模型、CUDA部署等专业课程 [7]