Workflow
VLM
icon
搜索文档
李想目前对AI兴趣远大于汽车硬件维度产品细节打磨
理想TOP2· 2025-09-01 15:50
本文核心表达4个观点: 以下为更细化论述: 理想第一产品线负责人老汤哥比较爱在公域互联网上分享产品研发过程,第二第三产品线负责人张骁李昕旸不太爱。 根据老汤哥的分享可知,MEGA Home诞生出发点是老汤哥获知一位用户有老人上下MEGA不方便的需求,老汤哥初衷是旋转90度来解决这个需求,李 想认为45度是更好的方案。在这个基础上,老汤哥想干脆二排座椅可以旋转+零重力,李想本人倾向这个比较难,可以二选一。老汤哥坚持两个都要。 二排21.4寸 LCD是老汤哥坚持的,李想本人倾向更小画质更好的Oled屏。焕新L9上双腔双阀是老汤哥坚持,李想本人明确倾向双腔单阀。 1.李想个人(不指理想公司)目前对AI兴趣远大于汽车硬件维度产品增量细节打磨。 2.只讨论短期市场的话,由于可能相当比例的消费者更偏好以硬件产品定义为核心去比较, 李想目前这种兴趣偏好,对短期销量是一个明确的潜在风险 点,对理想基于软硬件结合的AI长期能力是长期保障点。 3.不论短期还是长期商业价值,底层锚点都是产品使用价值为根基,辅之不同的情绪价值深度。AI时代,模型即产品。好的AI产品就是好的AI模型。 4.3个月以内(不指3个月以上就行,仅指3个月以 ...
何小鹏回应:与特斯拉市值差50倍合理吗?劝雷军造车是“害”他吗?
36氪· 2025-08-28 17:43
产品战略与定位 - 新P7全系标配Ultra配置 定位为品牌图腾产品 强调简单纯粹和尖端特性[3] - 新P7驾控体验突出 试驾中驾驶比例最高 具备肾上腺素分泌级别的操控加速感[5] - 销量目标设定为纯电动轿车市场前三 产能准备按前三标准推进 重点在于三个月后销量稳定性[4][13] - 产品定义侧重颜值与科技属性 MONA 03在价格区间具备断档领先的智能辅助驾驶能力[15] 技术研发与投入 - VLA(视觉语言行动)技术仅小鹏实现真正落地 需多维非结构化数据建模 年投入约50亿元[16][18] - VLA与VLM(视觉语言模型)协同发展 VLA为快模型(小脑) VLM为慢模型(大脑) 年底将形成双模型共识[20][22] - 端到端方案为二维结构化逻辑 VLA要求体验提升10倍才达标 技术分化将导致明年阵营重组[18][19][22] - GPU总量超3万个 混合使用英伟达与国产芯片 云端与本地端推理算力大幅提升[24] 成本结构与盈利展望 - 新能源汽车三电系统占成本40%-50% 传统10万台年销量盈利模型不适用[7] - 软硬全栈自研与跨域融合构成差异化优势 预计一至两年内收回历史亏损[10] - 五年后汽车公司将厚积薄发 实现高盈利 现阶段积累研发制造与质量能力[7][10] 市场竞争与估值 - 与特斯拉产品相似但市值差50倍 中国科技公司估值普遍为美国同行的1/7[26] - Robotaxi计划半年内上线 预计将改变市场价值认知[26] - 硬件叠加软件的实体科技公司具备规模效应 挑战高于纯软件企业[27] 技术演进路径 - 智能驾驶从单体智能向2026年群体智能演进 当前布局已延伸至2027-2028年规划[10] - VLM增强隐私保护 数据可完全不上网 保障网络异常或公司退出后的车辆正常运行[24][25] - 技术投入需长期基础性投入 短期取巧方案无法持续领先[22] 产能与供应链 - 模块化提升产能能力 后续造车企业产能准备更充分[4] - 一代P7销量约20万辆 模具与研发费用通过互联网式一次性摊销[7] 产品差异化逻辑 - 电车与油车成本结构差异 SUV因风阻与质量导致电池成本增加[11] - 同平台车型定价差异源于产品定位而非成本倒挂[11] 行业生态认知 - 造车被形容为永不停止的马拉松 需应对全方位竞争 与互联网行业天然壁垒形成对比[30][32] - 小米造车具备互联网软硬件基因 与智能汽车高度关联[35]
可以留意一下10位业内人士如何看VLA
理想TOP2· 2025-07-21 22:36
自动驾驶技术发展现状 - BEV感知方案已完全成熟并广泛应用于量产车型 基于BEV的动态感知、静态感知、OCC感知均实现技术落地 [16][24] - 端到端方案仍处于验证阶段 实际效果未显著超越传统两阶段模型 存在数据收集难度大、训练成本高等实操问题 [11][31] - 行业面临的核心挑战是corner case处理能力 非结构化道路、复杂路口等场景通过率不足99% [16][24] 新兴技术路线争议 VLA/VLM技术 - **看好派**:认为VLA通过大模型推理能力实现场景理解 可突破传统规则引擎的迭代瓶颈 是下一代技术重点方向 [2][28] - **质疑派**:指出当前VLA基座多依赖开源模型魔改 缺乏专用预训练体系 且车端算力限制导致性能与延迟难以平衡 [1][27] - **中立派**:认为对话功能仅提供情绪价值 控车逻辑需独立设计 量产可行性存在但效果待验证 [3][18] 关键技术突破方向 - **世界模型**:三大应用场景包括预训练、仿真数据生成、端侧推理 目前数据生成领域已取得阶段性成果 [6][33] - **强化学习**:仿真精度是核心瓶颈 若能解决sim2real域差距 配合端到端架构将实现性能飞跃 [6][32] - **扩散模型**:适配多模态轨迹生成特性 地平线DiffusionDrive方案已实现实时性突破 [7][26] 行业竞争格局演变 - 数据闭环能力成为竞争焦点 头部公司重点构建AI驱动的数据流水线 涵盖采集、清洗、标注全流程自动化 [20][22] - 仿真技术呈现两极分化:L4企业侧重世界模型构建安全验证体系 L2+厂商聚焦VLA提升泛化能力 [18][30] - 芯片算力制约技术落地 7B参数以下模型成主流 量化加速与轻量化算法需求迫切 [27][28] 学术与产业协同 - 学术界研究滞后于产业落地 BEV从论文发表到量产应用耗时2年 当前VLA等技术尚未形成理论共识 [31][9] - 产学研割裂问题突出 工业界数据壁垒导致学术界缺乏真实场景验证数据集 [13][31] - 3D高斯等新型表征方法有望重构世界模型架构 球谐函数替换等基础研究具备潜力 [6][33] 技术路线选择建议 - 短期优先完善一站式端到端方案 长期需突破鲁棒性瓶颈以实现L4 [18][26] - 平价车型可采用BEV+蒸馏方案过渡 等待芯片成本下降支撑大模型部署 [24][26] - 自动驾驶与具身智能技术互通 建议选择迁移性强的研究方向 [34][22]
师兄自己发了篇自动驾大模型,申博去TOP2了。。。
自动驾驶之心· 2025-07-09 20:56
大模型在自动驾驶领域的应用趋势 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行VLA、VLM方案 [2] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [2] - CoT方案和VLA+强化学习等高级推理范式成为行业重点 [2] 大模型优化技术研究方向 - 参数高效计算:研究剪枝稀疏化和量化加速等轻量化方法 [3] - 知识动态扩展:探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [3] - 复杂推理优化:研究链式思维(CoT)和强化学习优化(GRPO)等范式 [3] 课程核心内容 - 系统探讨大模型前沿优化方法,包括参数压缩、知识扩展和推理优化 [3] - 关键技术涵盖结构化剪枝、低比特量化、动态检索、多跳推理等 [3] - 实验平台使用主流大模型如LLaMA、GPT,结合理论讲解与实践 [3] 课程目标与收获 - 帮助学员系统掌握大模型优化理论,形成清晰知识体系 [8] - 提升Coding能力,实现论文复现与模型开发 [8] - 提供论文写作方法论、修稿指导与投稿建议 [8] 课程招生与要求 - 招生对象:大模型方向本硕博、申硕申博、AI领域从业者 [9] - 招生人数:6人/期,至多8人 [5] - 要求:具备深度学习基础,熟悉Python和PyTorch,有研究热情 [10] 课程大纲与时间安排 - 12周在线科研+2周论文指导+10周论文维护期 [9] - 每周主题涵盖大模型剪枝、量化加速、PEFT、多智能体协作等 [20] - 最终产出论文初稿,具备投稿潜力 [9] 实验与资源支持 - 提供Baseline代码,涵盖剪枝、量化、多模态推理等方向 [19] - 数据集采用公开资源或垂类自定义数据 [17] - 硬件要求最低2张4090显卡,建议4张或租赁云服务器 [15] 学术支持与成果预期 - 导师提供定制化研究idea,目标SCI 1~4区或CCF A/B/C级别论文 [22] - 课程交付价值包括科研流程、写作方法、论文初稿 [22] - 答疑周期为6个月,确保后续研究支持 [22]
大模型在自动驾驶后期的落地与研究方向有哪些?
自动驾驶之心· 2025-07-08 07:31
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受行业重点关注 [1] 大模型优化课程核心内容 - 课程系统探讨大模型前沿优化方法,聚焦参数高效计算、知识动态扩展和复杂推理三大方向 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等范式 [2] 课程技术重点 - 结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等关键技术 [2] - 使用LLaMA、GPT等主流大模型作为实验平台 [2] - 多智能体协作和多模态理解等前沿方向 [2][3] 课程安排与产出 - 12周在线小组科研+2周论文指导+10周论文维护期 [7] - 每周1-1.5小时课程,涵盖大模型剪枝、量化加速、PEFT、多智能体协作等主题 [18][20] - 最终产出包括论文初稿、写作方法论、投稿建议 [6][7] 学员收获 - 系统掌握大模型优化理论体系,解决知识零散问题 [6] - 获得导师提供的定制化研究idea和baseline代码 [7][17] - 提升Coding能力,掌握论文写作与投稿技巧 [6][7] 技术要求与资源 - 需具备PyTorch和Python基础,建议配备4张4090显卡 [13] - 提供公开数据集和Baseline代码,包括LLM-Pruner、LLaVA等开源项目 [15][16][17] - 必读论文涵盖GPTQ量化、Sheared LLaMA剪枝等前沿研究 [17][19]