Workflow
特斯拉世界模型
icon
搜索文档
最近咨询世界模型岗位的同学越来越多了......
自动驾驶之心· 2026-01-22 08:51
行业人才需求与招聘趋势 - 算法岗位春招及跳槽方向集中在世界模型(生成+重建)、端到端、VLA三大领域,需求旺盛[2] - 端到端岗位招聘要求高,更青睐有实际量产经验的人才[2] - VLA岗位需要求职者同时具备大模型和端到端背景[2] - 世界模型方向在2025年因特斯拉在ICCV的分享而受到行业关注并开始爆发,当前是入局的合适时机[2] 课程核心内容与结构 - 课程由自动驾驶之心联合工业界专家开设,聚焦通用世界模型、视频生成、OCC生成等算法,涵盖特斯拉世界模型及李飞飞团队Marble等案例[2] - 课程大纲分为六章:世界模型介绍、背景知识、通用世界模型探讨、基于视频生成的世界模型、基于OCC的世界模型、世界模型岗位专题[5] - 第一章概述自动驾驶世界模型,复盘其与端到端自动驾驶的联系,讲解发展历史、应用案例、不同流派(纯仿真、仿真+Planning、生成传感器输入、生成感知结果)及其解决的问题和环节,并介绍学术界与工业界动态、相关数据集与评测[7] - 第二章讲解世界模型的基础知识,包括场景表征、Transformer、BEV感知等,为后续学习奠定基础,这些内容是当前求职面试频率最高的技术关键词[7][8] - 第三章探讨通用世界模型及近期热门工作,详细讲解李飞飞团队的Marble、DeepMind的Genie 3、Meta的JEPA、导航世界模型,以及VLA+世界模型算法DriveVLA-W0和特斯拉ICCV分享的世界模型模拟器[8] - 第四章聚焦视频生成类世界模型算法,从Wayve的GAIA-1 & GAIA-2讲起,扩展至上交的UniScene、商汤的OpenDWM、中科大的InstaDrive,并以商汤开源的OpenDWM进行实战[9] - 第五章聚焦OCC生成类世界模型,讲解三大论文并进行一个项目实战,此类方法可扩展至自车轨迹规划以实现端到端[10] - 第六章基于前五章算法基础,分享世界模型在工业界的应用现状、行业痛点、期望解决的问题,以及相关岗位的面试准备和公司关注点[11] 课程技术深度与覆盖范围 - 课程背景知识部分将复习Transformer并扩展至视觉Transformer,讲解CLIP和LLAVA,详细介绍BEV感知和占用网络,讲解扩散模型理论,梳理闭环仿真、NeRF和3DGS的核心概念,并讲解其他生成式模型如VAE、GAN及Next Token Prediction[13] - 课程将涵盖清华的OccWorld、复旦的OccLLaMA、华科ICCV'25的HERMES、西交最新的II-World等具体研究工作[14] - 课程实战部分选取商汤开源的OpenDWM和II-World等主流算法框架进行复现[9][14][15] 课程目标与学员收获 - 课程是首个面向端到端自动驾驶的进阶实战教程,旨在推动端到端在工业界的落地,帮助学员真正理解端到端[12] - 期望学员学完后能达到1年左右世界模型自动驾驶算法工程师水平[15] - 学员将掌握世界模型技术进展,涵盖视频生成、OCC生成等方法[15] - 学员将对BEV感知、多模态大模型、3DGS、扩散模型等关键技术有更深刻了解[15] - 学员能够复现II-World、OpenDWM等主流算法框架,并将所学应用到项目中,学会设计自己的世界模型[15] - 课程对实习、校招、社招均有助益[15] 讲师背景与课程安排 - 讲师Jason拥有C9本科和QS50 PhD学历,已发表2篇CCF-A论文及若干CCF-B论文,现任国内TOP主机厂算法专家,从事端到端、大模型、世界模型等前沿算法的预研和量产,并已主持完成多项自动驾驶感知和端到端算法的产品量产交付[4] - 课程于1月1日开课,预计两个半月结课,采用离线视频教学,提供VIP群内答疑及三次线上答疑,答疑服务截止2026年12月31日[16] - 各章节解锁时间安排如下:第一章于12月10日解锁,第二章于1月1日解锁,第三章于1月20日解锁,第四章于2月4日解锁,第五章于2月24日解锁,第六章于3月1日解锁[17] 学员入学要求 - 学员需自备GPU,推荐算力在4090及以上[15] - 需具备一定的自动驾驶领域基础,熟悉自动驾驶基本模块[15] - 需了解transformer大模型、扩散模型、BEV感知等技术的基本概念[15] - 需具备一定的概率论和线性代数基础,熟悉常用数学运算[15] - 需具备一定的Python和PyTorch语言基础[15]
TeraSim World:用开源方式重建「特斯拉式」世界模型
自动驾驶之心· 2025-10-28 08:03
特斯拉世界模型技术特点 - 神经网络驱动的虚拟世界生成器,根据车辆状态和控制输入实时合成八个摄像头视角的高分辨率视频[2] - 在没有真实相机的情况下预测环境变化,重建连续且空间一致的驾驶画面,支持闭环验证和强化学习[2] - 学习通用的"感知—动作—世界变化"映射,可迁移到机器人等其他平台,成为通用物理智能的基础组件[2] TeraSim World开源框架核心能力 - 在开源条件下实现与特斯拉世界模型同级的生成与评测能力,无需真实地图或传感器背景即可自动生成整个城市环境与交通行为[5] - 基于NeuralNDE和NADE两项奠基性研究,既能再现自然交通行为,又能主动生成突发风险与环境干扰[6] - 模块化全自动数据合成流水线,专为生成端到端自动驾驶所需的真实且安全关键数据而设计[7] 真实地图与交通环境构建 - 用户输入位置或路线后,系统自动从公开地图数据获取当地道路结构和交通情况,识别道路类型并生成数字地图[11] - 从实时交通数据服务自动获取实际车流速度与拥堵状况,模拟符合当地节奏的早晚高峰和拥堵点[13] - 自动检索真实世界道路地图并转换为仿真可用格式,与智能体行为建模后端集成[10] 智能体仿真技术 - 通过学习大量真实驾驶数据生成自然的多车交互行为,如红绿灯前减速、狭窄道路错车、环岛礼让等[16] - 根据真实世界事故概率和强化学习机制自动引入安全关键情境,如前车急停、行人闯红灯等罕见但高风险事件[17] - 输出每个参与者的详细轨迹,描述其在道路上的移动和互动[17] 传感器仿真技术 - 依托NVIDIA开源世界模型Cosmos系列,生成真实感摄像头输入并可扩展到其他传感器类别[18][19] - 使用Google Street View API抓取六个方向街景图像,通过多模态语言模型自动生成语义描述[20] - 生成六个摄像头视角的高分辨率视频,最高分辨率达1280×704,帧率为24 fps,确保跨视角几何对齐和光照一致[25][26] 自动化压力测试框架 - 基于NADE研究成果复现动态风险,并扩展到静态风险和环境风险,如交通锥、施工区域、天气变化等[30] - 系统评估自动驾驶系统在多种复杂环境下的稳定性和安全边界[30] - 支持自动生成和验证不同类型的风险场景[30] 系统应用前景与愿景 - 为自动驾驶安全验证提供可扩展、成本更低的替代方案,减少实车采集和路测需求[31] - 采用开放技术路线,希望成为全球研究者与开发者共享的自动驾驶虚拟试验场[32] - 长期愿景是打造开放的端到端自动驾驶仿真与评测体系,让虚拟道路测试成为实车路测的可靠替代[32]