自动驾驶之心

搜索文档
面试了很多端到端候选人,还是有很多人搞不清楚。。。
自动驾驶之心· 2025-07-20 16:36
端到端自动驾驶技术概述 - 端到端自动驾驶分为一段式端到端和二段式端到端两大技术方向 是当前薪资最高的算法岗位之一 3-5年经验可冲击百万年薪 [2] - 核心优势在于直接从传感器输入到车辆规划/控制信息的直接建模 避免了传统模块化方法的误差累积 BEV感知技术实现了模块间的统一视角 [2] - UniAD模型统一了感知和规划任务 标志着端到端时代的来临 但并非最终解决方案 后续涌现出多种技术流派 [2][4] 主要技术流派 - **二段式端到端**:以PLUTO为代表 专注于用模型实现自车规划 [4] - **一段式端到端**: - 基于感知的方法:以UniAD为代表持续发展 [4] - 基于世界模型的方法:以OccWorld为代表开创新流派 [4] - 基于扩散模型的方法:以DiffusionDrive为代表实现多模轨迹预测 [4] - **VLA方向**:大模型时代下的端到端新方向 结合视觉语言模型技术 [4][22] 行业应用与人才需求 - VLA/VLM大模型算法专家岗位薪资达40-70K*15薪 博士应届生可达90-120K*16薪 [9] - 技术岗位覆盖感知算法、模型量化部署等多方向 实习岗位日薪220-400元 [9] - 主机厂已开展端到端算法预研和量产交付 形成完整技术落地闭环 [25] 技术发展挑战 - 需同时掌握多模态大模型、BEV感知、强化学习、扩散模型等跨领域知识 [14] - 论文数量繁多且知识碎片化 缺乏系统性学习框架和实战指导 [14] - 高质量文档稀缺 提高了技术入门门槛 [14] 课程体系设计 - **知识框架**:覆盖BEV感知、扩散模型理论、强化学习与RLHF等核心技术栈 [6][23] - **案例研究**: - 二段式端到端解析PLUTO、CarPlanner等经典算法 [21] - 一段式端到端深入UniAD、OccLLaMA等前沿工作 [22] - **实战环节**: - 扩散模型轨迹预测实战Diffusion Planner [22] - VLA方向实战小米ORION开源框架 [22] - 大作业RLHF微调实现技术迁移应用 [24] 技术发展趋势 - 世界模型应用扩展至场景生成、闭环仿真等多场景 成为近年研究热点 [22] - 扩散模型与VLM结合推动多模轨迹预测技术落地 [22] - VLA被视为端到端自动驾驶的"皇冠" 工业界招聘需求旺盛 [22]
SpatialTrackerV2:开源前馈式可扩展的3D点追踪方法
自动驾驶之心· 2025-07-20 16:36
三维点追踪技术现状 - 三维点追踪技术从单目视频中恢复任意点的长期三维轨迹,在机器人、视频生成及三维/四维重建中展现潜力[4] - 相比参数化运动模型(如SMPL、骨架等),该技术具有更强灵活性与泛化能力[4] - 现有方案依赖光流与单目深度估计等低/中层视觉模型,优化式方法计算成本高昂,前馈模型受限于真实三维轨迹监督数据[6] SpatialTrackerV2核心创新 - 将三维点追踪分解为视频深度、相机自运动与物体运动三部分,构建完全可微的多源异构数据联合训练流程[7] - 采用前端-后端架构:前端通过视频深度估计器和位姿初始化器生成深度图与粗略相机轨迹,后端通过SyncFormer模块实现二维/三维轨迹联合优化[7][11] - SyncFormer模块采用双分支交叉注意力结构,分别处理二维/三维特征并通过交叉注意力层同步更新,减少特征干扰[30] 技术实现细节 - 前端深度预测引入尺度-偏移回归模块,通过投影一致性损失校正深度与姿态的尺度歧义[15][16] - 后端捆绑优化包含重投影误差、几何一致性损失、动态性约束损失及正则项,总损失函数驱动相机位姿与轨迹迭代更新[24][25][26][28] - 动态性与可见性分数通过轻量级网络预测,用于加权优化过程[23] 性能表现 - 在TAPVid-3D基准达到21.2 AJ和31.0 APD3D,较DELTA提升61.8%与50.5%[9] - 视频深度指标AbsRel为0.081(行业最优0.093),01.25指标达0.910,超越MegaSAM等动态重建方法[32] - 相机位姿估计在TUM-dynamic数据集ATE为0.012,优于MegaSAM的0.013,推理速度快50倍[35][9] 应用与扩展性 - 支持17个异构数据集联合训练,包括RGB-D数据集的深度/姿态一致性约束和普通视频的姿态-轨迹一致性约束[8] - 在互联网随手拍视频中展现鲁棒性,为运动理解和物理智能提供基础[37] - 开源Demo可通过Hugging Face体验,技术细节见论文《SpatialTrackerV2: 3D Point Tracking Made Easy》[8]
港中文最新!ReAL-AD:迈向类人推理的端到端自动驾驶,轨迹性能提升30%(ICCV'25)
自动驾驶之心· 2025-07-20 16:36
核心观点 - 提出ReAL-AD框架,通过三层人类认知模型(驾驶策略、驾驶决策、驾驶操作)实现类人推理的端到端自动驾驶 [2][8] - 集成视觉-语言模型(VLMs)增强环境感知和结构化推理能力,规划准确性和安全性提升超过30% [2][11][34] - 采用层次化轨迹解码器实现从粗到细的轨迹规划,L2误差减少33%,碰撞率降低32% [9][34] 技术架构 - **策略推理注入器**:解析VLM生成的交通情境见解,制定高层次驾驶策略 [8][17] - **驾驶推理整合器**:将战略意图细化为可解释的驾驶选择(如变道、超车、速度调整) [8][20] - **层次化轨迹解码器**:两阶段变分解码器,先建立粗略运动模式再细化轨迹 [24][26] 实验验证 - **数据集**:NuScenes(1,000个20秒场景)和Bench2Drive(13,638片段/200万帧) [30] - **开环指标**:平均L2误差0.48米(NuScenes)、0.84米(Bench2Drive),碰撞率0.15%/0.12% [34] - **闭环指标**:驾驶评分提升至41.17,成功率11.36%,优于基线模型UniAD/VAD [35] 行业对比 - **传统方法局限**:依赖固定稀疏轨迹监督,无法模拟人类分层决策过程 [3][7] - **现有VLM应用**:多作为辅助模块提供语义线索,缺乏与决策层次的有机整合 [5][12] - **创新点**:首次将VLM推理嵌入三层决策架构,实现战略-战术-操作的全链路协同 [8][11] 性能优化 - **消融实验**:移除战略推理注入器导致L2误差增加12%,碰撞率上升19% [36] - **解码器设计**:两层结构比单层L2误差降低0.14米,三层会引入过拟合 [39] - **损失函数**:相似性损失有效弥合文本特征与轨迹预测特征的模态差距 [38]
大模型面经 - 快手快 Star
自动驾驶之心· 2025-07-20 16:36
面试流程与内容 - 一面重点考察论文细节和基础能力,涉及代码题(32 最长有效括号)和概率题 [2] - 二面继续深入探讨论文,增加场景题考察方案完善能力 [4] - 三面侧重知识广度,涵盖多模态大模型技术(BLIP-2/Qwen-VL的Learnable Query、KV Cache、后训练差异)、计算机视觉(SAM编码机制)、概率题(扑克牌花色概率)和场景设计题(直播间商品识别) [5] - 四面为答辩环节,聚焦业务理解和职业规划,需串联过往经历形成主线 [6] 技术考察重点 - 多模态大模型:关注主流范式(BLIP-2/Qwen-VL架构演进)、训练优化技术(LoRA矩阵初始化、DeepSpeed三阶段优化)、动态分辨率实现 [5] - 计算机视觉:深入探讨Diffusion与DETR结合、SAM的多模态prompt编码机制 [5] - 工程实践:涉及大模型部署(KV Cache)、推荐系统排序算法、多模态RAG应用 [5] 学习资源与社区 - 提供30+自动驾驶技术栈学习路线,覆盖感知(BEV/Occupancy/多传感器融合)、定位建图(SLAM/高精地图)、规划控制等领域 [7] - 知识星球包含近4000人社区,300+企业与科研机构参与,提供端到端自动驾驶、大模型、CUDA部署等专业课程 [7]
VLA的Action到底是个啥?谈谈Diffusion:从图像生成到端到端轨迹规划~
自动驾驶之心· 2025-07-19 18:19
扩散模型原理 - 扩散模型是一种生成式模型,本质是通过正向扩散和反向生成过程对数据分布进行学习和模拟[2] - 正向扩散过程从初始数据分布开始逐步添加噪声,最终达到纯噪声分布[5] - 反向生成过程从纯噪声出发,通过神经网络逐步去除噪声恢复原始数据[6] - 扩散过程基于马尔可夫链,未来状态仅依赖当前状态[8] - U-Net是扩散模型核心架构,采用编码器-解码器结构和跳跃连接增强细节恢复能力[11][12][13] 扩散模型与生成对抗网络对比 - GAN由生成器和判别器组成,通过对抗博弈生成新样本[20] - 扩散模型训练更稳定且样本质量更高,但计算成本较大[27] - GAN可融合多种噪声分布,而扩散模型通常保持噪声类型不变[28] - 扩散模型像"考古修复",GAN像"造假大师"[26] 自动驾驶应用 - 合成数据生成:解决数据稀缺问题,可生成极端天气等罕见场景[30][31] - 场景预测:生成多模态交通参与者行为预测[33] - 感知优化:用于BEV去噪和多传感器融合[34][35] - 路径规划:清华AIR团队Diffusion Planner实现多模态路径生成[36] - 端到端控制:DiffusionDrive实现实时决策[37] - 能量优化:Diffusion-ES算法求解最小能耗路径[42] 企业技术方案 - 毫末智行Diffusion Planner实现预测与规划联合建模,在nuPlan数据集表现优异[47] - 地平线HE-Drive系统利用扩散模型生成舒适驾驶轨迹[48] - 理想汽车MindVLA架构整合扩散模型优化驾驶轨迹[48] - 学术方案:条件扩散模型实现车辆极限漂移控制[49][51]
盘点 | 浙江大学高飞团队2025上半年无人机硬核成果
自动驾驶之心· 2025-07-19 18:19
高飞团队2025上半年研究成果 - 提出FIRI算法实现高质量、高效率、强可控性的凸多胞体生成,在二维车辆和三维无人机规划中性能超越现有方法 [8][10][11] - 开发CoNi-OA空地协同避障框架,仅凭单帧激光雷达数据实现<5ms实时避障,摆脱对全局定位依赖 [14] - 首创Primitive-Swarm规划器,通过离线运动基元库实现1000架无人机集群的毫秒级实时规划 [17] - 构建自主特技飞行系统,首次实现无人机100%成功率的复杂花式动作执行,解决微分平坦奇点问题 [20][21] - 提出分层规划框架,前端神经网络实现0.01秒路径生成,后端双层多项式消除轨迹奇异点 [23][25] - 开发差速驱动机器人通用优化框架,创新运动状态轨迹表示法统一处理多种机型复杂运动 [28][29] 技术突破方向 - 无人机集群规划:实现千机规模实时协同与超轻量级计算架构 [17] - 高机动控制:突破特技飞行自主生成与执行技术瓶颈 [20] - 环境适应性:在复杂动态环境中保持算法稳定性与鲁棒性 [14][23] - 跨平台通用性:建立差速驱动机器人统一优化理论体系 [28] 学术影响力 - 在IEEE TRO、Science Robotics等顶级期刊发表6篇突破性论文 [10][17][20][23][28] - 研究成果覆盖机器人学核心领域,包括轨迹规划、集群协同、感知导航等 [8][14][17][20][23][28] - 算法在真实场景验证,性能指标全面超越现有方法 [11][17][20][23][29]
DeepSeek终于丢了开源第一王座。。。
自动驾驶之心· 2025-07-19 18:19
模型排名与表现 - Kimi K2在全球开源模型中排名第一,总榜排名第五,紧追马斯克Grok 4等顶尖闭源模型 [3] - 在总榜TOP 10中,Kimi K2得分为1420,与Grok 4(1437)和GPT 4.5(1437)差距较小 [4][26] - 唯二进入总榜TOP 10的开源模型均来自中国,包括Kimi K2(第5)和DeepSeek R1(第8) [4][26] 技术架构与优化 - Kimi K2继承了DeepSeek V3的架构,并进行了四项关键参数调整:增加专家数量、注意力头数减半、仅保留第一层Dense、专家无分组 [17] - 调整后总参数增至1.5倍,但推理耗时更小,成本控制优于V3架构 [18] - 团队选择完全继承V3架构的原因包括已验证的可靠性和有限的训练资源 [13] 市场热度与社区反响 - Kimi K2发布一周内GitHub标星达5.6K,Hugging Face下载量近10万 [6] - Perplexity CEO公开支持K2,计划基于该模型进行后训练 [8] - 用户访问量激增导致官方发布公告应对流量压力 [9] 开源模型趋势 - 开源模型性能已接近闭源模型,TOP 10分数均超过1400,差距显著缩小 [24][26] - 行业专家如Tim Dettmers和Perplexity CEO认为开源模型将逐步超越闭源,并在AI全球化中发挥关键作用 [28][30] - 开源社区对Kimi K2的编程能力(第二)、复杂提示词处理能力(第二)等单项表现给予高度评价 [7]
厘米级精度的三维场景实时重构!这款三维激光扫描仪太好用了~
自动驾驶之心· 2025-07-19 18:19
产品概述 - GeoScan S1是一款轻量化设计的手持三维激光扫描仪,具备厘米级精度的三维场景实时重构能力,核心优势在于多模态传感器融合算法[1] - 设备采用手持Ubuntu系统,集成电源手柄设计,通过D-TAP转XT30母头为雷达、摄像头及主控板供电[2] - 由同济大学刘春教授团队与西北工业大学产业化团队联合研发,经过上百个项目验证,首发价19800元起[4] 技术参数 - 扫描性能:每秒生成20万点云,70米测量距离(精度±1.5cm),360°水平视角覆盖,支持20万平米以上大场景扫描[1][23] - 同步精度:微秒级硬件IO同步触发,最高800Hz频率,集成IMU/RTK/激光雷达/相机等多传感器数据同步[28][29] - 计算单元:搭载Intel N5095处理器(4核2.0GHz/睿频2.9G),16GB内存+256GB存储(可拓展TF卡)[16] - 物理规格:尺寸14.2×9.5×45cm,含电池重量1.9kg,航空铝外壳,续航3-4小时(88.8Wh电池)[16] 核心功能 - 实时建模:通过多传感器SLAM算法输出彩色点云数据,支持pcd/las/plv等通用格式导出[16][21] - 3D高斯采集:选配模块可实现高保真实景还原,需采购升级版本(39800-67800元)[44][51] - 跨平台集成:适配无人机/无人车/机械狗等负载平台,配备千兆网口+双USB3.0接口[1][38] 应用场景 - 复杂环境适应:在写字楼/停车场/隧道/矿场等室内外场景均能完成精准三维建模[32][40] - 行业解决方案:适用于地理信息采集、施工监控、文物保护、城市规划等领域[46][48] - 典型场景案例:大型园区/市政道路/环形花园等场景建模验证[33][43] 版本与定价 - 基础版19800元(含激光雷达+IMU+RTK+双相机) - 深度相机版23800元 - 3DGS在线版39800元 - 3DGS离线版67800元[51]
博士毕业,五篇顶会起步。。。
自动驾驶之心· 2025-07-19 14:49
文章核心观点 - 文章主要介绍了一款针对自动驾驶和具身智能研究者的AI科研论文1v1指导课程 旨在帮助研究者高效利用下半年CCF推荐会议的投稿机会 解决论文撰写过程中的核心挑战 包括选题新颖性 实验严谨性 写作规范性和投稿策略匹配等问题 [2] - 课程通过一对一资深导师辅导 深度介入论文撰写与修改全过程 提供个性化解决方案 帮助研究者在有限时间内提升论文竞争力 抓住下半年CCF会议的投稿机会 [2] 论文辅导面向的痛点 - 解决导师放养 无人指导 科研流程不清晰的问题 [6] - 帮助建立科研思维 系统掌握经典与前沿算法 形成清晰体系 [6] - 协助将模型理论与代码实践结合 提升实践能力 [6] - 助力将baseline深化拓展 形成自己的论文 [6] 面向人群 - 在读计算机专业本、硕、博学生 导师放养 希望获取论文创新思路 [6] - 有科研需求 需积累经验 提升职称或学术成就的人员 [6] - 从事人工智能领域相关工作 希望升职加薪 提高竞争力的人员 [6] - 考研申博留学 需提升简历含金量的人员 [6] 课程内容 1 选题阶段 - 导师根据实际情况和需求 引导学员构思论文idea或直接给出建议 [7] - 梳理分析已有研究成果 确保研究方向具有前瞻性和创新性 [13] - 提供相关课题文献 助力快速高效确定研究方向 [13] 2 实验阶段 - 导师全程指导实验设计、模型搭建、调参、验证idea可行性及实现 [9] - 协助完成数据收集、整理与分析 确保数据质量和完整性 [14] - 助力实验代码实现与模型训练 指导完成实验微调和结果统计 [14] 3 论文写作阶段 - 导师全程指导学员写出让审稿人眼前一亮的科研论文 [11] - 深度剖析高质量论文写作技巧 指导搭建论文框架 [15] - 帮助润色论文 符合审稿人要求 [15] 4 投稿阶段 - 导师根据学员情况 推荐合适期刊 助力精准投稿 [12] - 从审稿人角度分析并指导回复审稿意见 [16] 5 录用阶段 - 根据论文情况与时间节点 保证论文在周期内录用 [17] 课程形式与服务方式 - 腾讯会议在线1v1上课 日常微信群内沟通答疑 [22] - 班主任督学 跟进学习进度 [18] 课程收获 - 产出一篇目标区位的高质量论文 [23] - 掌握科研流程 提升科研能力与素养 [23] - 掌握科研论文写作方法与技巧 [23] - 掌握投稿方法与选刊技巧 [23] 课程亮点 - 主讲导师为顶会审稿人 提供经典论文+前沿论文讲解+idea给予/方向建议+写作方法+投稿建议 [23] - 专属学员沟通答疑群 配备导师及班主任 [27] 指导周期与维护周期 - 总指导周期=核心指导期+维护期 根据论文区位不同 周期在3到18个月不等 [24] - CCF A/SCI 1区:核心指导期9个月(36次课) 维护期9个月 [24] - CCF B/SCI 2区:核心指导期7个月(28次课) 维护期6个月 [24] - CCF C/SCI 3区:核心指导期7个月(28次课) 维护期6个月 [24] - EI(期刊/会议):核心指导期6个月(24次课) 无维护期 [24] 上课平台与Q&A - 腾讯会议直播+小鹅通回放 [27] - 未开课前可任意更换班级 开课后无法更换 [27] - 提供基础课程供学员自主学习 [27] - 专属学员沟通答疑群 日常问题群内解答 [27]
死磕技术的自动驾驶黄埔军校,三周年了~
自动驾驶之心· 2025-07-19 14:32
业务发展 - 打造了四个IP矩阵:自动驾驶之心、具身智能之心、3D视觉之心、大模型之心,覆盖知识星球、公众号、视频号、哔哩哔哩、知乎等平台 [2] - 从纯线上教育转型为全栈式服务平台,新增硬件业务、论文辅导和求职业务,并在杭州设立线下办公室 [2] - 知识付费仍是核心业务,但重点拓展了硬件教具、线下培训和求职招聘等多元化服务 [2] 技术方向 - 自动驾驶行业正经历大模型引发的智驾方案升级,从VLM/VLA向更先进的端到端解决方案演进 [2] - 具身智能和大模型是重点孵化方向,已举办多期圆桌论坛,受到学术界和产业界广泛关注 [2] - 视觉大语言模型(VLM)在自动驾驶中的应用包括预训练、迁移学习和知识蒸馏等多个技术分支 [9][12][13] 社区建设 - 自动驾驶之心知识星球已成为国内最大的自动驾驶技术社区,拥有近4000名成员和100+行业专家 [4] - 社区覆盖30+自动驾驶技术学习路线,包括端到端自动驾驶、BEV感知、Occupancy等前沿方向 [4] - 每周活跃度位居国内前20,注重成员积极性和技术交流 [4] 内容体系 - 知识星球包含四大板块:技术领域分类汇总、科研界顶级大佬直播、求职资料分享和痛点问题解答 [7] - 整理了视觉大语言模型、世界模型、扩散模型和端到端自动驾驶四大前沿技术方向的资源 [6] - 汇总了多个Awesome资源库,涵盖VLM架构、推理策略、安全隐私等细分领域 [8] 数据集资源 - 整理了VLM预训练使用的多个大型数据集,包括LAION5B(5B图文对)、WuKong(100M中文图文对)等 [15] - 汇总了自动驾驶相关数据集,如nuScenes、Waymo Open Dataset、BDD100K等,涵盖感知、预测、规划等任务 [21][22] - 收集了语言增强的自动驾驶系统数据集,支持自然语言导航和空间推理等高级功能 [22] 应用领域 - 智能交通领域应用包括语言引导车辆检索、视觉问答和视频异常识别等技术 [23] - 自动驾驶感知方向涉及行人检测、3D目标检测和开放词汇语义分割等任务 [24] - 定位规划领域探索语言引导导航、轨迹预测和运动规划等解决方案 [25] 行业趋势 - 世界模型在自动驾驶中快速发展,涵盖3D场景理解、未来场景演化和物理原理建模等方向 [30][31] - 扩散模型在自动驾驶中的应用包括场景生成、数据增强和轨迹预测等多个方面 [33][39] - 端到端自动驾驶研究聚焦多模态融合、可解释性和长尾分布处理等关键问题 [45][55]