Workflow
自动驾驶之心
icon
搜索文档
传统的感知被嫌弃,VLA逐渐成为新秀...
自动驾驶之心· 2025-09-11 07:33
自动驾驶技术演进 - 自动驾驶技术从传统模块化架构向端到端VLA模型演进 解决错误累积和信息损失问题[2] - 传统模块化架构存在错误累积效应 上游模块微小误差会逐级传递放大[2] - 纯视觉端到端模型存在黑箱问题和因果混淆 可能学到虚假关联而非真正因果关系[2] - VLA模型通过引入语言作为中间表征 赋予模型推理解释和交互能力[2][3] - VLA模型可利用LLM预训练的世界知识 理解复杂交通场景并做出符合逻辑决策[3] VLA技术优势 - VLA模型提升可解释性与可信赖性 能用自然语言解释决策依据[3] - VLA模型增强泛化与处理长尾场景能力 通过语言抽象和推理能力泛化到未见场景[3] - VLA实现自然人机交互 用户可通过自然语言向车辆下达高级指令[3] - VLA范式打造感知认知决策一体化智能体 不仅是会开车更能理解世界与人沟通的AI驾驶员[3] 论文辅导课程内容 - 课程系统讲解VLA自动驾驶重点理论知识 帮助形成清晰知识体系[4] - 课程将模型理论与代码实践结合 协助开发设计新模型[4] - 课程提供论文写作方法论和投稿建议 解决文章不会写不会投问题[4] - 课程时长12周在线小组科研加2周论文指导和10周论文维护期[5][12] - 课程提供经典论文前沿论文和代码实现 包括创新点baseline数据集[5][10] 课程收获 - 学员可获得对典型论文分析方法 理解重点算法与原理清晰不同算法优劣势[5][12] - 导师为每位学员提供研究idea 即使自己没想到合适idea也能进行后续研究[5][12] - 学员coding能力增强 在老师准备baseline代码和数据集上高效展开研究[5][12] - 学员获得论文写作自查修改方法论 以及投稿建议[5][13] - 学员可能产出一篇论文初稿 通过完全投入课程学习与实践[13] 课程大纲 - 课程覆盖传统端到端自动驾驶 VLA端到端自动驾驶模块化VLA模型等内容[6][8][19] - 具体包括传统端到端介绍 VLA端到端介绍 模块化VLA模型 统一端到端VLA模型等[6][8][24] - 课程包含论文写作方法论和课题汇报与投稿意见[8][25] - 每周课时1-1.5小时 共14周课程[24][25] - 课程采用2+1式师资 主导师由名校教授行业导师担任 副导师由博士硕士担任[21] 招生要求 - 学员需具备深度学习基础 对自动驾驶算法有简单了解[14] - 学员需熟悉掌握python语法和PyTorch使用[14] - 学员需完成在线1v1面试[14] - 硬件要求最好具备8张4090显卡或以上设备 最低不少于4张4090显卡[17] - 学习要求每周上课前阅读资料完成作业 课上积极参与讨论 应该全勤[17] 服务支持 - 课程提供公开数据集 如nuScenes Waymo Argoverse等自动驾驶数据集[21] - 课程提供baseline代码 包括基于模仿学习扩散模型和VLA的端到端自动驾驶代码[22] - 课程提供必读论文 包括A Survey on Vision-Language-Action Models等5篇核心论文[23] - 上课平台为腾讯会议直播加小鹅通回放[26] - 答疑周期为6个月 授课周期为3.5-4个月[27]
研三了,找工作的时候卡在了论文上......
自动驾驶之心· 2025-09-10 20:00
公司业务定位 - 公司是国内最大的AI类技术自媒体平台,旗下拥有自动驾驶之心、具身智能之心、3D视觉之心等多个IP平台[3] - 公司深耕自动驾驶、具身智能、机器人等交叉学科领域多年,深刻理解这些领域的挑战与机遇[3] - 公司专注于为计算机专业硕博生提供论文辅导服务,解决导师放养、科研体系不清晰等痛点问题[8][9] 核心服务内容 - 提供从选题、调研、idea验证、代码实现、实验设计、论文润色到投稿中稿的一站式科研服务[10] - 服务覆盖CCF-A/B/C类会议、SCI1-4区期刊以及EI会议等多种论文发表目标[10] - 采用腾讯会议在线1v1上课形式,配合微信群日常沟通答疑,提供录播无限次回看和24小时课后答疑服务[12] - 配备班主任全程督学,跟进学习进度,确保服务效果[13] 师资力量与成果 - 拥有300+专职于自动驾驶/具身智能方向的导师团队,全部来自全球QS排名前100的高校[5] - 导师团队发表过多篇顶会/子刊/A会/B会等高水平论文,具备丰富的学术经验[5] - 近3年累计辅导学员超过400+名,中稿率高达96%,展现出显著的服务效果[5] - 具备精准匹配系统,可根据学员研究方向、目标期刊和基础水平匹配3-5位最契合的导师[14] 服务流程与周期 - 标准论文辅导周期为12周,第1周确定研究方向并筛选3个备选课题[4] - 第2-3周完成文献综述和论文框架搭建,第4-6周进行实验设计与数据收集[4] - 第7-8周完成初稿,第9-10周进行修改润色,第11-12周开始选刊投稿[4] - 针对零基础学员提供基础课程,通过6个月周期可完成一篇小论文的产出[14] 附加价值与保障 - 优秀学员可获得清北/MIT等名校推荐信,并有机会推荐到实验室或阿里达摩院、华为诺亚方舟等企业研发岗[15] - 提供预收定金试听服务,承诺meeting不满意可免费更换老师或退款[15] - 服务价格根据目标期刊分区差异化定制,学术顾问会根据学员具体情况提供详细报价方案[15]
阿里AgentScope发布,掀翻了国产Agent的餐桌
自动驾驶之心· 2025-09-10 07:33
行业背景与趋势 - 人工智能正从单一模型向多模态、从AI Agent向Agentic AI过渡 形成由智能体驱动的新生态 [1] - 大语言模型快速发展推动智能体将内在知识与动态工具使用相结合 大幅提升处理现实任务的能力 [3] AgentScope 1.0框架定位 - 阿里通义实验室推出的企业级智能体开发框架 对标LangGraph [1] - 集成了阿里在Mobile-Agent、Qwen-Agent和Qwen-code等智能体框架方面的经验 是全面稳定的企业级解决方案 [2] - 深度融合消息驱动与分层架构 提供开箱即用、可扩展且易维护的企业级应用方案 [1] 核心架构设计 - 基于ReAct范式构建智能体行为 具备三大核心功能:Reply(推理行动生成响应)、Observe(处理外部信息更新状态)、Handle Interrupt(处理中断支持人机协作) [9] - 提供三大关键特性:实时控制(通过asyncio取消机制暂停循环)、并行工具调用与动态工具供应(单步骤生成多并行调用)、状态持久化与非侵入式定制(基于StateModule) [9] - 系统化异步设计提供高级智能体层基础设施 丰富人机交互与智能体间交互模式 提升执行效率 [3] 内置智能体能力 - 包含三类场景化智能体:深度研究智能体(集成Tavily搜索MCP 支持查询扩展分层反思过程总结)、浏览型智能体(集成Playwright MCP 支持视觉文本融合多标签浏览)、元规划智能体(支持分层任务分解动态实例化) [9] - 支持多智能体协作两种范式:"智能体作为工具"(主智能体调用专业智能体处理子任务)、"智能体对话"(通过Pipeline封装交互模式 MsgHub实现消息广播) [9] 开发者支持体系 - 提供分层评估模块:Task(单个评估单元)、SolutionOutput(标准化输出)、Metric(分类数值指标)、Benchmark(聚合任务suite) [9] - 包含两类评估器:GeneralEvaluator(单进程顺序执行适合调试)、RayEvaluator(基于Ray分布式适合大规模评估) 支持结果持久化与中断续跑 [9] - Studio可视化平台提供聊天机器人式对话追踪、评估结果可视化(性能分布图表置信区间)、内置副驾驶Friday(检索技术资源展示高级功能) [9] - Runtime运行时系统采用双核心架构:Engine(部署为FastAPI服务支持A2A协议)、Sandbox(提供隔离环境统一接口) 简化部署保障安全 [9] 典型应用场景 - 用户-助手对话:通过ReAct智能体与UserAgent构建 支持OpenAI、DashScope等多模型提供商 [9] - 多智能体对话:用MsgHub管理参与者 SequentialPipeline控制发言顺序 支持动态移除参与者 [9] - 深度研究智能体:自动分解研究任务补充知识缺口 生成结构化分析报告适用于学术市场研究 [9] - 浏览型智能体:集成Playwright处理网页快照分块长网页 响应查询股票价格等自动化指令 [9] - 元规划智能体:支持复杂任务分解(如Meta股票分析报告)和工作智能体动态管理 具备状态持久化能力适合多步骤工作流 [9]
自动驾驶VLA再升级!博世IRL-VLA:打造全新闭环强化学习框架
自动驾驶之心· 2025-09-10 07:33
核心技术创新 - 提出IRL-VLA闭环强化学习框架 通过逆向强化学习构建轻量级奖励世界模型(RWM) 取代高计算成本的仿真器奖励计算[3][9][15] - 采用三阶段训练范式:模仿学习预训练VLA策略、逆向强化学习构建RWM、RWM引导的PPO强化学习微调策略[3][15][26] - 在NAVSIM v2基准测试达到SOTA性能 EPDMS得分74.9 并在CVPR2025自动驾驶大奖赛以45.0 EPDMS获得亚军[3][15][48] 模型架构设计 - VLA模型包含语义推理模块(基于Senna-VLM的多图像编码)、3D推理模块(BEV编码器+向量化token)、统一扩散规划器(多模态轨迹生成)[18] - 扩散规划器采用分层去噪机制 整合BEV特征、地图标记和检测标记 确保轨迹符合环境约束[19] - 奖励世界模型以多视角图像和预测轨迹为输入 输出EPDMS综合评分 包含9项子指标加权计算[21][22][23] 性能表现对比 - 预训练模型(IRL-VLA-PT)在Navhard基准测试EPDMS达74.4 优于DiffusionDrive(63.2)、WOTE(66.7)和GTRS-Aug(74.3)[44] - 在安全指标(NC 98.3)接近GTRS-Aug(98.9)同时 显著提升舒适性指标(EC 76.0 vs 54.2)和进度指标(EP 83.9 vs 76.1)[44] - 强化学习微调后(IRL-VLA-RL)EPDMS进一步提升至74.9 证明闭环训练有效性[44][47] 技术实现细节 - 使用V2-99主干网络 处理256×704分辨率多视角图像输入[36] - 模仿学习阶段采用AdamW优化器(学习率10⁻⁴ 批量32)训练100周期[36] - RWM训练结合二元交叉熵、均方误差和交叉熵损失 使用专家演示数据与模拟器反馈[36] - 强化学习阶段采用PPO算法(截断参数0.2 折扣因子0.99 GAE参数0.95)在8块A100 GPU训练[36] 消融实验验证 - 完整模型(3D+语义推理+扩散规划器)比仅3D推理模型EPDMS提升4.4(74.4 vs 70.0)[47] - 模仿学习损失权重λ=0.5时取得最佳平衡 EPDMS达74.9 过高(λ=1.0)或过低(λ=0.1)均导致性能下降[47] - 扩散规划器单独贡献3.0 EPDMS提升 语义推理模块贡献1.4提升[47]
花了很久,才整理好的自动驾驶学习路线......
自动驾驶之心· 2025-09-10 07:33
行业人才供需现状 - 自动驾驶行业高速发展导致高质量人才严重不足 企业反映满足需求的求职者越来越少[1] - 高校培养体系滞后于业界发展 学生在校所学知识无法跟上技术迭代速度 例如2022年入学时接触BEV技术 2025年毕业时行业已转向端到端和大模型[1] - 从业者背景多元但缺乏系统训练 主要来自机械/通信转码、自动化/计算机/电子信息、传统机器人领域 多数通过非传统路径入门[1] 社区规模与资源 - 自动驾驶之心知识星球社区已聚集近4000名成员 涵盖国内外顶尖高校和头部企业 目标未来两年内扩张至近万人规模[3][10] - 社区整合视频、图文、学习路线、问答、求职交流功能 提供超过40个技术方向的专业内容 包括VLA、BEV感知、端到端自动驾驶等前沿领域[3][10][11] - 与近300家机构及自动驾驶公司建立连接 提供岗位内推机制 成员可第一时间获得就业机会[59][6] 技术知识体系架构 - 建立完整自动驾驶技术栈学习路径 覆盖感知、规划控制、仿真等六大模块 包含40+细分技术路线如多传感器融合、轨迹预测、世界模型等[5][11] - 汇总近60个自动驾驶数据集 涵盖VLM预训练/微调/思维链/强化学习等类型 同时整合主流仿真平台和开源项目[10][24] - 提供100问系列实战指南 包括TensorRT模型部署、毫米波雷达融合、规划控制面试等七大专题 助力工程化落地[5] 行业专家网络 - 邀请数十位产业界与学术界一线专家入驻 定期开展技术直播 目前已举办超百场专业分享 内容涉及VLA、3D检测、扩散模型等热点[51] - 社区成员来自上海交大、清华、CMU等高校以及蔚小理、华为、英伟达等企业 形成跨学界业界的高质量交流生态[10][51] - 建立常态化大佬对话机制 探讨技术趋势与量产痛点 提供职业发展指导[4][57]
超越GPT-4o!AgentThink: 清华&小米融合推理&工具调用的自动驾驶框架(EMNLP25)
自动驾驶之心· 2025-09-10 07:33
视觉语言模型在自动驾驶领域的应用突破 - 视觉语言模型(VLM)展现出简化传统自动驾驶系统中感知、预测与决策模块的潜力 但现有方法在不确定性建模、泛化性能与可解释性方面存在局限[1] - 行业突破点正从基础感知与控制层面向高阶语义场景理解与复杂拓扑关系等问题收敛 例如复杂红绿灯和标牌语义理解问题[4] - VLM模型存在严重幻觉问题 即答案格式正确但内容错误 影响自动驾驶决策可靠性[4] AgentThink框架的核心创新 - 由清华大学、小米、麦吉尔大学等团队联合提出的AgentThink框架 将动态工具调用与思维链推理深度融合 提升VLM在自动驾驶任务中的推理可靠性和泛化能力[3][5] - 框架采用动态工具调用与思维链推理融合机制 使VLM能够根据场景自主调用工具并进行推理 显著降低幻觉问题[5][8] - 创新性地构建包含视觉信息、检测、轨迹预测、占用和建图五个核心模块的工具库 为感知和预测任务提供全面环境信息[11] 数据生成与训练方法论 - 通过GPT-4o生成带工具调用的结构化推理数据 每个推理步骤包含工具选择、子问题生成、不确定性标志、猜测答案和下一个动作选择五个关键元素[13] - 引入独立LLM审核器(Expert Qwen)对数据内容准确性和逻辑一致性进行双重校验 构建高质量结构化语料库[14] - 采用结合SFT和GRPO的两阶段训练流程 第一阶段通过SFT预热模型生成推理链和工具调用能力 第二阶段通过GRPO算法进行强化学习微调[15][18] 评估体系与实验结果 - 设计针对自动驾驶工具调用的全新评估指标 涵盖工具选择恰当性、工具链连贯性和感知对齐性三个维度[20] - 基于LLM-as-judge原则使用gpt-4o-mini进行多维度评价 对比模型输出与GroundTruth数据得到工具调用准确性和合理性分数[22] - 在主实验中AgentThink在所有评估类别达到最先进性能 整体推理得分从51.77%提升至79.68%(+53.91%) 最终答案准确率从37.81%提升至71.35%(+33.54%)[23][48] - 相比最强基线DriveLMM-o1 推理能力提升5.9% 最终答案准确性提升9.0%[24] - 在零样本和单一样本设置下分别达到26.52和47.24的分数 超过GPT-4o和LLaVA-72B等基线模型[43] 技术优势与行业影响 - 动态工具调用机制使模型能够学习何时以及为何调用外部工具 实现更具适应性和上下文感知的推理 从而提升决策质量并减少幻觉[36] - 结构化奖励设计(最终答案奖励、分步推理奖励和工具使用奖励)对推理行为有显著贡献 完整模型结合所有奖励成分达到最优结果[37][41] - 框架展现出优异的零样本泛化能力 能够有效处理BDD-X、Navsim、DriveBench、DriveMLLM等基准测试上的挑战性场景[44] 未来发展方向 - 当前工具语料库包含18k条标注实例 需要更大且更多样化的数据集以覆盖更广泛真实世界场景[49] - 模型基于qwen2.5-VL-7B参数架构 未来需研究更轻量级骨干网络(如~3B参数)以减轻车载资源约束[49] - 缺乏时间上下文和3D模态数据 未来需引入视频标记、递归记忆机制以及LiDAR点云等多模态工具融合[49] - 重点发展方向包括时序上下文建模、多模态工具扩展和强化学习泛化 以提升框架在开放道路环境中的适配能力[49]
自动驾驶论文速递 | 端到端、Diffusion、VLM、OCC等方向~
自动驾驶之心· 2025-09-09 15:51
端到端自动驾驶扩散策略KDP-AD - 同济大学与北卡罗来纳大学教堂山分校提出知识驱动扩散策略KDP 在匝道合并 交叉路口和环形交叉路口场景中分别实现100% 94%和90%成功率 显著优于强化学习 规则基和模仿学习基线方法[3] - 框架将混合专家重塑为抽象驾驶知识单元 实现模块化组合式策略学习 支持跨场景知识复用与新行为生成 融合扩散建模与专家路由机制 通过条件去噪生成时序连贯多模态动作序列 保障长时域一致性[5] - 在汇入匝道场景中成功率100% 零碰撞率 平均奖励197.52 平均速度8.61米/秒 在交叉路口场景成功率94% 碰撞率6% 平均奖励121.54 在环形交叉路口场景成功率90% 碰撞率10% 平均奖励177.85[12] 3D语义占用预测SliceSemOcc - 南京航空航天大学提出垂直切片多模态3D语义占用预测框架 在nuScenes-SurroundOcc数据集上将mIoU从24.7%提升至28.2% 相对提升14.2% 尤其在小型物体类别表现显著提升[16] - 采用双尺度垂直切片策略 提取全高度范围全局切片与聚焦小目标高度区间局部切片 通过双向交叉注意力机制融合特征 设计SEAttention3D通道注意力模块保留高度轴分辨率 生成高度层专属通道权重[17][19] - 在nuScenes-SurroundOcc和nuScenes-OpenOccupancy数据集分别实现28.2%和22.9%整体mIoU 较基线模型相对提升14.2%和13.9% 小目标类别障碍物 自行车 行人等增益显著[19][22] 交互式世界生成LatticeWorld - 网易与清华大学提出基于多模态大语言模型LLaMA-2-7B与Unreal Engine 5的交互式3D世界生成框架 实现90倍以上工业级场景生成效率提升 从55天缩短至0.6天以内 支持多模态输入与高保真物理仿真[27] - 设计32×32符号矩阵作为场景布局中间表示 将空间信息编码为LLM可处理序列形式 基于LoveDA和Wild数据集构建多模态数据集 包含文本描述 视觉指令 符号布局和环境配置[29] - 在场景布局准确性和视觉保真度上优于GPT-4o Claude 3.7 Sonnet等模型 较传统人工生产流程效率提升超90倍 保持高创作质量[29][35] 视觉语言模型空间推理Ego3D-Bench - 华为科技加拿大公司与华为云提出Ego3D-Bench基准和Ego3D-VLM后训练框架 提升视觉语言模型在自我中心多视角场景中三维空间推理能力 实现多选题准确率平均提升12%和绝对距离估计RMSE平均提升56%[37] - 基于nuScenes Waymo Open Dataset Argoverse 1构建8600+高质量问答对 覆盖绝对距离测量 相对距离测量 定位 运动推理 行驶时间5类任务 提出文本认知地图提升VLMs 3D空间推理能力[38] - 在16个SOTA VLMs上实验显示Ego3D-VLM平均提升多选项QA准确率12% 绝对距离估计RMSE相对改善56% 在All-Angle Bench VSI-Bench等其他多视图基准具适应性[38][42]
π0.5开源了!!!
自动驾驶之心· 2025-09-09 15:51
模型升级与开源 - π0.5模型通过知识隔离训练实现更强的开放世界泛化能力 是π0的升级版本 [3] - 项目开源并提供基于超1万小时机器人数据预训练的base模型 [5] 模型性能与基准测试 - π0.5模型在LIBERO基准测试中获得最先进性能 [9] - 模型在DROID数据集上通过知识隔离微调实现快速推理和良好语言跟随能力 [9] 框架支持与功能 - OpenPI同时提供π0和π0.5模型的PyTorch实现版本及原始JAX版本 [10] - PyTorch版本已在LIBERO基准测试中完成验证 涵盖推理与微调 [10] - 当前暂不支持π₀-FAST模型 混合精度训练 全分片数据并行训练 低秩自适应训练和训练期间的指数移动平均权重 [12]
当老师给我指了个VLA作为研究方向后.......
自动驾驶之心· 2025-09-09 11:42
小林是某C9高校的研二同学,目前实验室主要是做自动驾驶和机器人方向的。这两周刚开学,忙完 了寝室和班里里面杂七杂八的事情,该去实验室和老板Meeting一下了。老板这个暑假没闲着啊,看 了企业不少VLA都量产上车了,说咱们实验室也可以搞搞看,发发论文。 确实自动驾驶最近的热点都在大模型和VLA靠拢,然而VLA并不是那么好做的,对于一个新手或者 转行的同学,开展研究蛮难受的。踩了一年坑,也不一定能有效果。这时候,峰哥给他推荐了自动 驾驶之心的1v6论文辅导。 ⼀、VLA科研论文辅导课题来啦⭐ 端到端(End-to-End)自动驾驶旨在构建一个统一的智能模型,直接将传感器原始输入(如摄像头图 像)映射到车辆的驾驶控制指令(如转向、油门、刹车),从而替代传统的多模块、级联式架构 (感知、预测、规划、控制)。这一演进过程大致可分为以下几个阶段,而VLA模型的出现正是为 了解决前序阶段的瓶颈,标志着一个新范式的开启。 1. 传统模块化架构的时代: 早期的自动驾驶系统(L2-L4级)普遍采用模块化设计。每个模块(如 物体检测、轨迹预测、路径规划)被独立开发和优化。 优势: 逻辑清晰,各模块可独立调试和 验证,具有较好的可 ...
悄悄搞了个大模型技术社区......
自动驾驶之心· 2025-09-09 11:42
大模型技术社区发展现状 - 社区核心关注领域包括大模型RAG、AI Agent、多模态大模型(预训练/微调/强化学习)以及部署推理优化等技术方向 [1] - 平台定位为国内最大的大模型技术社区 持续为行业输送技术人才和产业学术信息 [1] - 社区正在快速搭建技术模块 旨在吸引对大模型技术感兴趣的专业人士加入 [1] 社区价值主张 - 强调内容质量与人才培养 自称"认真做内容的社区"和"培养未来领袖的地方" [2] - 通过知识星球形式提供进阶学习机会 形成技术交流与知识共享的生态体系 [1]