Workflow
通用人工智能(AGI)
icon
搜索文档
遥遥无期的AGI是画大饼吗?两位教授「吵起来了」
机器之心· 2025-12-21 12:21
文章核心观点 - 文章围绕“AGI能否实现”这一核心议题,呈现了两种对立的观点:一种基于物理和成本限制认为AGI和超级智能无法实现[3][7][28],另一种则认为当前AI系统在软硬件效率上仍有巨大提升空间,通往更强AI的道路多样,实用化的“类AGI”能力可能并不遥远[33][36][66] 对AGI的悲观论据(物理与成本限制) - **计算受物理规律制约**:计算是物理过程,需要在局部计算与全局信息移动间取得平衡,随着晶体管缩小,计算变便宜但内存相对变贵,芯片面积主要被内存占据,导致算力可能因内存服务不足而成为“无效算力”[8][10][11] - **Transformer架构已接近物理最优**:该架构以最简单方式结合了局部计算与全局信息汇聚,是对信息处理单元的物理层面优化[11][12] - **线性进步需要指数级资源**:在物理现实和观念空间中,要获得线性改进,所需投入的资源呈指数级增长,观念创新因领域庞大而边际收益递减[13][15] - **GPU进步已停滞**:GPU在“性能/成本”指标上于2018年左右达峰,后续改进多为一次性特性(如16位精度、Tensor Core、HBM等),现已走到尽头,任何进一步改进都将是权衡而非纯收益[16][17] - **规模化收益面临极限**:过去GPU的指数级增长对冲了规模化所需的指数级成本,但现在规模化已变成指数级成本,物理极限可能在一到两年内逼近,规模化收益不再显著[20] - **基础设施优势可能迅速蒸发**:若研究/软件创新、强大的开源推理栈或向其他硬件平台迁移取得突破,前沿实验室的大规模基础设施优势可能一夜消失[21][22][26] - **超级智能是幻想**:超级智能自我改进引发爆炸增长的前提错误,智能改进受物理现实和缩放规律制约,线性改进需指数级资源,其发展更可能是填补能力空白而非推动边界外扩[28][29] - **AGI需具备物理执行能力**:真正的AGI需包含能在现实世界完成经济意义工作的实体机器人,但机器人领域数据收集成本高昂,现实细节复杂,许多问题经济上并不划算[25][27] 对AGI的乐观论据(效率与创新空间) - **当前AI系统被严重低估,效率远未达上限**:训练效率比几年前更低,例如DeepSeek-V3和Llama-4训练的MFU仅约20%,而2022年的BLOOM项目已达50%,当前模型设计并非为最高硬件利用率[39][41] - **推理效率存在更大提升空间**:最优化推理实现关注带宽利用率(MBU),FLOP利用率(MFU)常为个位数(<5%),这并非物理根本极限,而是当前自回归架构规模化带来的限制[43][44] - **新一代硬件提供显著算力提升**:Blackwell架构芯片的FP8吞吐量是Hopper的2.2倍,并支持原生FP4 Tensor Core,GB200等机架级方案可缓解通信瓶颈,高效FP4训练理论上可将可用FLOPs提升最多9倍[42][50] - **模型是硬件的滞后指标**:当前模型反映的是上一代硬件能力,而新一代超大规模集群(如10万卡以上)正在建设,意味着高达50倍的算力建设正在发生[47][48] - **明确的效率提升路径**:通过训练高效的架构协同设计、高质量高效率的FP4训练、推理高效的模型设计(如扩散式语言模型)等方式,可大幅提升硬件利用率[45][46][52] - **已有AI工具产生巨大经济影响**:以更务实的定义,一套在某些任务上比大多数人做得更好并能产生巨大经济影响的通用工具体系,可能并不遥远,例如当前模型已在编程等领域越过关键阈值[60][61] - **即便能力不提升,应用场景仍广阔**:假设模型能力冻结,系统层面的效率改进也足以让许多高影响力应用落地,且通过新的后训练范式、更好的样本效率等方法,可继续推进“有用AI工具”[62][63][65] 行业路径与理念差异 - **中美AI发展路径不同**:美国遵循“赢家通吃”思路,追求构建最大最强的超级智能模型;中国理念更侧重应用,认为模型能力本身没有应用重要,关键是实用性和以合理成本提升生产力[23][24] - **不同理念的可持续性**:在模型能力增速放缓的背景下,追求超级智能的目标可能遭遇困难,而推动AI经济扩散的务实思路可能更具长期优势[24][30]
智谱冲刺“全球大模型第一股” AGI梦想背后 高增长与高投入并行
每日经济新闻· 2025-12-20 23:00
文章核心观点 - 智谱华章作为中国大模型独角兽,正式向港交所递交招股书,冲刺“全球大模型第一股”,其招股书成为观察大模型行业商业化落地阶段的重要样本 [1] 财务表现与增长 - 公司收入高速增长,2022年至2024年收入分别为5740万元、1.25亿元和3.12亿元人民币,年均复合增长率超130% [3] - 2025年上半年收入增速进一步放大,实现营收1.91亿元,较2024年同期的4490万元同比增长325.39% [3] - 毛利率维持在较高水平,2022年至2024年分别为54.6%、64.6%、56.3%,2025年上半年为50.0% [3] - 公司尚未实现盈利,净亏损持续扩大,2022年至2024年净亏损分别为1.44亿元、7.88亿元和29.58亿元,2025年上半年净亏损为23.58亿元,同比扩大91% [5] - 经调整净亏损(非国际财务报告准则计量指标)在2022年至2024年分别为9741.7万元、6.21亿元和24.66亿元,2025年上半年为17.52亿元 [6] 商业模式与市场地位 - 公司商业模式以模型即服务(MaaS)平台为核心,通过API调用向开发者和企业输出智能能力 [4] - 在全球大模型超市OpenRouter上,其GLM-4.5/4.6的调用量在付费API中稳居全球前十,收入超过所有国产模型之和 [4] - 公司大模型已赋能全球12000家企业客户、逾8000万台终端用户设备及超4500万名开发者 [4] - 按2024年收入计,公司在中国独立通用大模型厂商中排名第一,但市场份额仅为6.6%,行业高度分散 [4] 研发投入与成本结构 - 研发投入巨大是亏损主因,2024年研发开支高达21.95亿元,是当年收入的7倍以上;2025年上半年研发开支为15.95亿元,是同期收入的8倍以上 [7] - 算力服务费用是研发开支的关键组成部分,2024年为15.53亿元,占研发开支比重超70%,2025年上半年该比例仍维持在七成以上 [8] - 公司历史现金消耗率快速攀升,从2022年的每月300万元,上升至2024年的每月1.95亿元,并在2025年上半年进一步攀升至每月3.27亿元 [8] 财务状况与客户结构 - 公司负债净额持续上升,截至2025年6月30日达61.51亿元,同期流动负债净额为70.89亿元,主要因向投资者发行金融工具 [8] - 客户多元化进程明显,前五大客户收入占比从2023年的61.5%降至2025年上半年的40%,最大客户占比为11% [10] - 供应商存在一定集中度,2022年至2024年各年度及2025年上半年,对前五大供应商采购额约占总额的50%左右 [10] 行业挑战与风险 - 行业仍处于发展初期,AGI技术实现存在不确定性,若AGI实质性进展放缓或停滞,公司将面临投入与收益不匹配的局面 [10] - 市场竞争激烈,公司需面对其他创业公司及阿里巴巴、腾讯、百度等拥有深厚资金和生态资源的科技巨头的竞争,可能导致定价压力 [11] - 算力供应链存在风险,地缘政治冲突和相关法律法规变化可能影响算力供应商提供的价格和服务 [11]
智谱,通过港交所IPO聆讯,或很快香港上市,中金公司独家保荐
搜狐财经· 2025-12-20 20:11
公司概况与市场地位 - 公司为北京智谱华章科技股份有限公司,于2025年12月19日披露港交所聆讯后招股书,计划在香港主板IPO上市 [2] - 公司成立于2019年,是中国领先的人工智能公司,致力于开发先进的通用大模型(AGI) [2] - 根据弗若斯特沙利文资料,按2024年收入计,公司在中国独立通用大模型开发商中排名第一,在所有通用大模型开发商中排名第二,市场份额为6.6% [3] 业务与技术 - 公司于2021年发布中国首个专有预训练大模型框架GLM框架,并推出模型即服务(MaaS)平台,提供语言、多模态、智能体及代码四类模型 [2] - 公司于2022年开源首个1,000亿规模模型(GLM-130B),是中国首家发布自研开源大模型的人工智能公司 [2][5] - 截至2025年6月30日,公司已开源50多个模型,累计下载量超过4,500万次 [5] - 截至2025年6月30日,公司模型已为超过8,000家机构客户及约8,000万台设备提供支持 [2] - 公司模型已与40多款主流硬件芯片兼容,通过自研算子库确保在多元硬件环境中的高效训练 [5] 财务表现 - 2022年、2023年、2024年及2025年前六个月,公司营业收入分别为人民币0.57亿元、1.25亿元、3.12亿元及1.91亿元 [13] - 同期,公司净亏损分别为人民币1.44亿元、7.88亿元、29.58亿元及23.58亿元 [13] - 同期,公司经调整净亏损分别为人民币0.97亿元、6.21亿元、24.66亿元及17.52亿元 [13] - 2025年前六个月,研发开支高达人民币159.47亿元,是同期收入(19.09亿元)的8.35倍 [14] 股东与治理结构 - 上市前,以刘德兵博士为核心的一致行动人集团合计持股约33.03% [7] - 资深独立投资者包括君联资本、美团、启明创投等,合计持股约13.49% [7][9] - 其他知名投资者包括蚂蚁集团、腾讯投资、Capital Today、达晨财智、华控资本、中关村科学城、珠海华发、沙特Aramco Ventures旗下Prosperity7等 [7][9] - 董事会由9名董事组成,包括3名执行董事、3名非执行董事及3名独立非执行董事 [12] 上市相关 - 公司每股H股面值为人民币0.10元 [1] - 中金公司担任本次IPO的独家保荐人 [1][15] - 其他中介团队包括毕马威(审计师)、天元(公司中国律师)、年利达(公司香港及美国律师)等 [15][16]
港股GPU第一股将诞生
财联社· 2025-12-20 14:02
国产算力芯片产业资本市场动态 - 国产算力芯片产业正迎来资本市场“高光时刻”,壁仞科技与天数智芯相继通过港交所上市聆讯 [1] - 壁仞科技已于2025年8月以18C机制秘密递表,预计2026年1月完成挂牌,募资规模或达3亿美元 [1] - 天数智芯亦通过聆讯,早期外媒报道其计划IPO融资3亿至4亿美元 [1] 港交所18C章上市制度概况 - 港交所18C章特专科技上市制度自2023年3月实施,核心突破在于降低未盈利特专科技企业上市财务门槛 [7] - 2025年5月开通的“科企专线”允许保密递表,进一步助推递表热潮 [7] - 2025年以来,已有文远知行、滴普科技、云迹科技及希迪智驾四家企业通过该规则成功上市 [1][7] - 据不完全统计,目前以18C通道递表的企业总数已达19家,其中壁仞科技、天数智芯、五一视界三家企业已通过聆讯 [1][7] - 瑞银预计明年将有150至200家公司来港上市,IPO总规模料达3000亿元,位居全球榜首 [8] 壁仞科技公司分析 - 公司成立于2019年,专注于通用图形处理器(GPGPU)芯片及智能计算解决方案研发,跻身国产GPU第一梯队 [2] - 公司构建“GPGPU芯片硬件系统、BIRENSUPA软件平台与智能计算集群交付”三位一体的核心业务体系 [2] - 已推出BR106(训练与推理)、BR110(边缘推理)两款量产芯片,并依托芯粒(Chiplet)技术创新推出更高性能的BR166芯片 [3] - 可提供千卡级智能计算集群一站式交付服务,已落地多个“壁仞智算云”节点,支撑超200个大模型训练任务 [3] - 研发人员占比达83%,2022至2025年上半年研发开支占各期总经营开支的比例均超过70% [3] - 已在全球斩获613项授权专利、40项软件著作权及16项集成电路布图设计,另有972项专利在审 [3] - 2022至2024年营收从49.9万元攀升至3.37亿元,两年累计增长超675倍;2025年上半年收入0.59亿元,同比增长近50% [4] - 2024年净亏损15.38亿元,2025年上半年净亏损扩大至16亿元,经调整净亏损为5.52亿元 [4] 天数智芯公司分析 - 公司是国内首家实现训练与推理通用GPU量产的企业,也是国内通用GPU领域首家采用7nm先进工艺实现芯片量产的企业 [5] - 构建了覆盖AI计算全场景的产品矩阵,天垓系列聚焦训练场景,智铠系列专注推理需求 [5] - 天垓Gen1为国内首款量产通用GPU产品,天垓Gen3已发布并预计2026年一季度量产 [5] - 截至2025年6月30日,公司研发团队达484人,超三分之一成员拥有十年以上行业经验 [5] - 累计拥有65项授权专利、207项商标及113项版权 [5] - 2022–2024年,通用GPU产品出货量分别为7,800片、12,700片、16,800片,2025年上半年出货量进一步增至15,700片,累计交付超5.2万片 [6] - 截至2025年6月30日,公司已服务超290家行业客户,客户数量从2022年的22家跃升至2024年的181家 [6] - 在金融服务、医疗保健、交通运输等关键领域完成超900次部署应用 [6] - 2022–2024年,公司营业收入分别达1.89亿元、2.89亿元、5.40亿元,三年复合年增长率68.8% [6] - 2025年上半年营收3.24亿元,同比增长64.2% [6] 行业影响与展望 - 18C制度对处于高投入、长周期、未盈利阶段的国产GPU企业提供了关键的资本通道和市场信心支撑 [9] - 港股市场投资者更看重企业现金流的稳定性与订单的可预见性,对相关企业的后续经营提出了更高要求 [9]
Alex Wang“没资格接替我”!Yann LeCun揭露Meta AI“内斗”真相,直言AGI是“彻头彻尾的胡扯”
AI前线· 2025-12-20 13:32
文章核心观点 - 图灵奖得主Yann LeCun严厉批评当前硅谷主流的人工智能发展路径,认为仅靠扩大语言模型规模、使用更多合成数据的路径行不通,是一条“死胡同”[2] - LeCun认为,实现真正智能的关键障碍是让机器具备“狗的智能水平”,这比达到人类水平更困难,核心在于获得对现实世界的理解、预测和行动能力,而非仅仅生成流畅文本[3] - 为此,LeCun通过其新创公司AMI(先进机器智能)推动构建“世界模型”,该模型在抽象表征空间中对世界运行规律进行建模和预测,旨在为机器提供接近真实认知的基础能力[3] 对当前AI发展路径的批评 - 批评业界对大语言模型规模化的执念,认为这条路径“完全是胡扯”,无法通向超级智能[2] - 指出大语言模型架构需要海量数据模仿人类行为,且可靠性有限,其构建的智能体系统并不理想[9] - 认为仅靠文本训练永远不可能达到人类水平的智能,因为文本是“记忆型”数据,冗余度低,而现实世界的视频等数据在结构上更丰富,更有学习价值[20][21] - 认为大语言模型并不真正理解世界的基本规律,它们只是被微调到给出“看起来正确”的答案,这是复述而非理解[28] “世界模型”技术路线 - 核心思路是在抽象表征空间中对世界运行规律进行建模和预测,而非在像素或文本层面进行输出[3] - 关键技术是JEPA(联合嵌入预测架构),其思想是学习一个抽象的表征空间,滤除输入中大量无法预测的细节(包括噪声),然后在此空间内进行预测[11] - 强调世界模型不需要是现实的逐像素模拟器,而是在抽象表征空间中,只模拟与任务相关的那部分现实[24] - 认为构建世界模型的正确方法是训练能够学习抽象表征的模型,并介绍了Barlow Twins、VICReg、SigReg(Lojic-JEPA)等相关方法[18] 创业公司AMI(先进机器智能)的规划 - 公司最终目标是推出实际产品,产品将围绕世界模型和规划等核心技术展开,其雄心是成为未来智能系统的主要供应商之一[9] - 公司计划以开放的方式进行上游研究,认为公开发表成果是取得突破的必要途径[7][8] - 公司是一家全球性企业,在巴黎、纽约等地设有办公室,选择在硅谷之外启动部分业务是为了避免陷入硅谷的“技术单一化”竞争环境[55] 对AI发展现状与未来的判断 - 认为达到“狗水平智能”是AI发展中最难的部分,一旦实现,绝大多数核心要素就已具备[37] - 最乐观估计,在5到10年内,或许能看到接近人类或至少接近“狗水平”的智能系统,但历史表明可能会出现新瓶颈,可能需要20年或更久才能突破[35][36] - 不认同“通用智能”的概念,认为应以“人类水平智能”为讨论目标,且这个过程将是渐进的,而非突发事件[33][34] - 认为当前AI在游戏等领域的应用进步缓慢,部分原因在于创作者需要“可控性”,而非完全的AI自由演化[30] 对AI安全与架构的看法 - 认为安全必须与发展同步进行,而不是先停下来等待“绝对安全”[41] - 主张转向以目标驱动为核心的AI架构,该系统拥有世界模型、规划能力,并受到一套硬性约束的限制,从设计层面确保安全[42][43] - 批评当前通过微调或过滤来限制大语言模型输出的方法成本高昂、低效且不可规模化,本质上是“暴力搜索”[43][44] 对行业与其他公司的评价 - 指出硅谷因竞争极端激烈,导致几乎所有大公司(如OpenAI、Meta、Google、Anthropic)都在做同样的事情,形成了“技术单一化”[55][56] - 认为这种同质化竞争容易被来自完全不同方向的技术突破所颠覆[57] - 评价其他构建世界模型的公司:认为Physical Intelligence的方向仍是“生成像素”的思路;认可Wayve公司在自动驾驶领域构建世界模型的方法(在表示空间预测),但指出其表示空间通过重建训练获得是错误的;提及Sandbox AQ的“大型定量模型”概念与自身主张一致[52][53][54] 个人职业与Meta相关 - 解释离开Meta创业的原因:看到AI投资热潮让长期研究型创业成为可能,且认为许多实验室正转向封闭,因此选择在外部推进自己的研究方向[6] - 澄清Alex Wang在Meta的角色是统管所有AI相关的研发与产品整体运作,而非接替其科研职责,其职责涵盖FAIR(基础研究)、TBD Lab(前沿模型)、AI基础设施和产品部门[46] - 指出Meta的FAIR实验室正被推向更短期、更偏应用的研究方向,公司整体正在变得更“封闭”[48]
对话小马智行王皓俊:Robotaxi正进入1到1000的阶段
华尔街见闻· 2025-12-20 13:31
行业范式转移与商业化拐点 - 全球智驾行业在2025年正经历从实验室研发到商业化落地的范式转移,行业开始关注财务报表上的硬碰硬表现[2] - 商业化拐点已至,百度萝卜快跑在2025年二季度于武汉实现收支平衡,小马智行在11月宣布其第七代Robotaxi在广州实现单位经济模型(UE)转正[2] - 行业已从0到1的探索阶段,进入1到100、1到1000的规模化扩张阶段,清晰的商业化时间表浮现:2025年底冲击千辆级车队,2026年提升至3000辆,2030年迈向10万辆规模[2] 小马智行的商业化突破与成本控制 - 小马智行第七代Robotaxi在广州实现UE转正,意味着在剔除总研发投入后,单车收入已能覆盖硬件折旧与运营开支,实现了区域市场的商业闭环[4] - 实现UE转正的具体运营数据为:车辆日均23单,日均营收约为299元,接近行业公认能形成正向循环的24单阈值[4] - 成本大幅下降是关键:第七代车自动驾驶套件BOM成本相比第六代骤降70%,通过采用自研域控制器及规模化车规级固态雷达,将激光雷达成本压低了68%[5] - 运营费用显著优化:凭借优异安全记录,Robotaxi商保年费比传统出租车低50%,远程协助员与车辆比值已达1:20并计划压向1:30,地面维护人效也达到近20辆车/人[6] 商业模式转型与生态构建 - 公司从重资产自营模式转向轻资产的生态赋能模式,构建了“主机厂生产-资产公司持有-流量平台分发-小马提供AI司机”的价值链[7] - 在新的轻资产模式下,公司收入来源转变为车辆销售收入、技术授权费(License)以及每笔订单的服务分成[7][15] - 公司明确不做垂直运营,而是赋能给当地有资源、有意愿的合作伙伴,该模式将支持其2026年车队扩容至3000台的目标[7][18] 竞争格局与行业动态 - 2025年Robotaxi赛道竞争激烈,成为科技巨头、出行平台与主机厂共同卷入的行业混战[8] - 国际竞争者方面:Waymo周订单突破45万单,2025年至今出行量超1400万次,但其新车型成本是中国同类车型的4到5倍以上,特斯拉则通过纯视觉方案和百万辆规模野心加速入场[8] - 国内竞争者方面:百度萝卜快跑周订单已超25万单,累计服务单量突破1700万次,小鹏汽车宣布2026年量产纯视觉Robotaxi,哈啰计划在2027年铺开5万辆规模[9][10] - 行业逻辑质变,从技术竞赛演变为资本、供应链与运营人效的综合竞争,技术公司需与主机厂、平台深度捆绑[11] 市场前景与运营重要性 - 瑞银分析预测Robotaxi市场规模:到2030年,中国一线城市部分部署规模为80亿美元,中国全国部署可达1830亿美元,计入除美国外的海外市场则达3940亿美元[12] - 随着硬件成本下降,运营费用(维保、保险、补能)在单车成本结构中的占比将从目前的48%左右升至55%,运营效率成为竞争核心[12] - 规模效应的“黄金节点”被定在10万台,达到此阈值后强大的网络效应将产生质变,对应中国一线城市出行市场5%~10%的份额[12] 技术路线与战略认知 - 公司认为L4的核心是安全性需比人类司机高很多,这必须依靠强化学习和生成式的“世界模型”,而非模仿学习[13][20] - 公司指出L3因仍需人类司机在场,无法节省人力成本,故其UE不可能转正,但L3的成功可能为未来搭载L4功能的私家车铺路[16] - 公司认为车企进入L4赛道是好事,但强调L4是强监管行业,需要系统本身积累安全里程来获取牌照,这为现有玩家留下了窗口期[21] - 在数据方面,公司认为L4的关键不在于数据量优势,而在于是否有好的生成式数据架构,模仿学习路径对L4不奏效[22][23] 海外市场拓展策略 - 海外市场处于早期拓展阶段,预计明年允许示范运营的总量约为小几百辆,达到千辆规模才有商业化机会[18] - 市场优先级上,中国和美国是最大市场,其次是欧盟,日本、韩国、澳大利亚等高人力成本、高出行需求国家也是优先选择[18] - 中东市场被视为独特机会,虽然出行需求不是最大,但政策推动力最强,预计明年可能进入示范运营阶段,是产生可持续收入的市场[6][18] - 在海外市场,公司将坚持轻资产模式,赋能当地合作伙伴,而非亲自进行垂直运营[18]
北京将跑出“全球大模型第一股”!
新浪财经· 2025-12-19 23:20
公司概况与市场地位 - 公司为智谱,总部位于北京,是中国最大的独立大模型厂商,有望以“全球大模型第一股”身份在港交所挂牌上市 [1] - 公司成立于2019年,由清华大学技术成果转化而来,团队在国内率先启动大模型研究 [1] - 公司坚持自研与完全自主可控,陆续推出中国首个百亿模型、首个开源千亿模型、首个对话模型、首个多模态模型和全球首个设备操控智能体 [1] 技术与产品实力 - 公司研发基于自回归填空的全国产预训练架构GLM,在鲁棒性、可控性和幻觉性方面取得突破性进展,并适配了40余款国产芯片 [1] - 2025年9月发布的GLM-4.6模型,在全球百万用户盲测的大模型竞技场Code Arena上,其代码生成能力与Anthropic、OpenAI等国际公司模型并列全球第一,超越谷歌Gemini和xAI的Grok [1] - GLM系列大模型已应用于民生治理、工业制造、能源电力、金融、互联网、通信、消费电子、教育等行业 [3] 商业化进展与财务表现 - 公司已成为中国收入体量最大的独立大模型厂商,收入主要来自大模型收入 [2] - 公司面向全球开发者的模型业务(GLM coding plan)已获得超过1亿元的年度经常性收入,并在3个月内快速拥有超过15万付费开发者用户 [2] - 在全球大模型超市OpenRouter上,GLM-4.5/4.6自上线以来调用量稳居全球前十,其付费API收入超过所有国产模型之和 [2] - 公司已连续三年营收翻倍,2022年、2023年、2024年收入分别为5740万元、1.245亿元、3.124亿元,年复合增长率达到130% [3] - 2025年上半年收入为1.9亿元 [3] - 公司毛利率持续保持在50%以上,2022年、2023年、2024年毛利率分别为54.6%、64.6%、56.3%,2025年上半年毛利率为50% [3] - 公司拥有超过270万的客户与开发者 [3] 融资与行业意义 - 公司IPO前已完成8轮融资,融资规模超83亿元,受到国资、产业资本、VC/PE等众多知名投资机构认可 [3] - 作为“大模型六小龙”中首家启动IPO的企业,其上市进程折射出中国AI大模型行业从“技术竞赛”到“资本验证”的转折 [3] - 公司上市预示着中国大模型产业将从早期的狂热投入,正式进入以技术实力、营收能力与可持续商业模式为核心考量的新发展阶段 [3]
智驾人才涌入具身智能,热钱有了新叙事
创业邦· 2025-12-19 22:57
行业热度与资本涌入 - 具身智能成为2024年风险投资追逐的新风口,投资机构抢投项目,甚至有投资人在台风天冒雨拜访创业公司[5] - 中国活跃在AI和具身智能领域的投资机构至少有上百家,早期投资的资金总和超过百亿美元[6] - 二级市场已流露出悲观情绪,有证券分析师认为具身智能最好的行情已经结束,现在进场只有下跌[13] - 国内政策制定机构首次对具身智能发出风险提示,指出国内人形机器人企业已超过150家,需注意防范产品重复扎堆、研发空间被挤压等风险[13] 创业团队背景变迁 - 2024年具身智能领域涌入一批拥有智能驾驶产业背景和丰富产品化经验的新创业者[5] - 投资机构对创业团队背景的偏好从海外名校(如伯克利、CMU、MIT、斯坦福)教授,转向拥有规模产品化经验的智能驾驶产业高管[7] - 智能驾驶背景的团队被认为见过大场面、懂得调用海量算力进行大模型训练,具备纯学院派团队难以企及的庞大资源调动经验[8] - 针对智能驾驶背景的工程师,各家创业公司开出的薪资涨幅普遍在50%左右[11] - 部分投资人更倾向押注年轻的“少壮派”团队,对以整合资源为目的的资深高管创业持保留态度[11] 主要创业公司及融资情况 - 宇树科技在2024年春晚表演后完成C轮融资,估值超百亿元[5] - 它石智航(由华为前首席科学家陈亦伦和百度前总经理李震宇联合创办)上线数月内融资超10亿元人民币[7] - 至简动力(由理想汽车前CTO王凯等创办)获得约5000万美元天使轮投资[7] - 无界动力(由地平线前副总裁张玉峰创立)完成首轮3亿元天使融资[7] - 维他动力(由地平线前副总裁余轶南创立)获得超3亿元种子轮、天使轮融资[9] - 美国具身智能公司Figure AI在2024年9月以390亿美元估值完成超10亿美元C轮融资,成为全球最贵的具身智能公司[13] - 其他代表性创业公司融资情况:星海图(近15亿元Pre-A轮、A轮)、逐际动力(超5亿元A轮、战略轮)、智平方(数亿元A轮、A+轮)、有鹿机器人(超1亿元天使轮)、阿米奥(超亿元种子轮)[9] 技术路径与挑战 - 技术路径上,具身智能面临与智能驾驶类似的从基于规则到端到端训练的转向,智驾背景创业者的模型训练和数据运用经验被认为可有效迁移[10] - 主流技术路线是VLA(视觉-语言-动作)模型,能理解抽象指令但效果相对不可控;基于规则的小模型泛化能力差[12] - 高质量的真实交互数据极度匮乏是技术缺乏验证的根本原因[12] - 机器人控制复杂度高,需要控制全身超过20个关节电机与灵巧手,依靠力觉反馈实现精细操作,这与控制方向盘、油门、刹车的智能驾驶存在差异[11] - 核心硬件如灵巧手使用寿命短,以特斯拉Optimus为例,其灵巧手使用寿命不超过2个月,制约规模量产[12] 商业化与成本问题 - 有公司研发的用于汽车总装车间的机器人,目前售价约60万元/台,预计2027年规模量产后能降至35万至40万元,与两名工人18个月的薪酬及社保支出相当[12] - 但上述成本模型未计入机器人的使用寿命和故障损耗成本[12] - 投资人在调研中发现,敢在现场稳定演示核心功能的团队屈指可数,量产问题是“房间里的大象”[11] - 一级市场上数百万美元级的小额投资常见,但单笔超过2000万美元的大额投资并不多见,而后者是决定创业公司能否走完后半程的关键[15] 投资逻辑与行业共识 - 投资机构的投资逻辑高度相似,优先投资具身智能大脑、小脑、机器人本体,然后是触觉传感器、机械臂/灵巧手等[14] - 投资人坦言,95%的时间都在投共识,大家拿着相似度95%甚至100%的产业图谱去寻找公司[15] - 投资机构寄望“智驾系”创业公司能更接地气地解决实际问题,并愿意为他们的量产和企业运营经验提前买单[6]
万字拆解371页HBM路线图
半导体行业观察· 2025-12-19 17:47
文章核心观点 - 高带宽内存是AI算力发展的关键基础设施,其性能直接决定了AI模型训练和推理的速度与效率[1] - 韩国KAIST大学发布的HBM技术路线图详细规划了从2026年HBM4到2038年HBM8的完整发展蓝图,揭示了未来十年HBM技术的演进方向[1] - HBM通过3D堆叠等核心技术,在带宽、功耗和体积上相比传统内存具有压倒性优势,已成为AI服务器的必需品[7][11][14] HBM技术定义与核心优势 - HBM是一种专为AI设计的“超级内存”,采用“三明治式”3D堆叠技术,将8-24层核心芯片垂直堆叠,通过硅通孔连接,解决了传统内存的“平面布局”缺陷和数据传输瓶颈[7][8] - HBM相比传统DDR5内存具有三大核心优势:带宽极高、功耗更低、体积迷你[11] - **带宽碾压**:HBM3带宽为819GB/s,HBM4将达2TB/s,HBM8更将飙升至64TB/s,是HBM3的78倍,能满足未来万亿参数AGI的需求[12][56] - **功耗减半**:传输1TB数据,HBM3功耗是DDR5的60%,HBM4能降至50%,可为数据中心节省巨额电费[13] - **体积小巧**:HBM直接集成在GPU封装旁,传输距离从厘米级缩短至毫米级,使AI服务器算力密度提升3倍[10][14] HBM技术发展路线图(2026-2038) - **2026年:HBM4——定制化首秀** - 核心创新在于定制化Base Die,可集成内存控制器并直接连接低成本、大容量的LPDDR内存,作为“备用仓库”[9][22] - 带宽从HBM3的819GB/s提升至2TB/s,单模块容量达36-48GB,是HBM3的2倍[22] - 采用直触液冷散热方案以应对75W的高功耗[24] - 主要面向中端AI服务器、高端游戏显卡等场景[26] - **2029年:HBM5——近内存计算崛起** - 核心创新是引入近内存计算,在内存堆叠中集成NMC处理器和L2缓存,使内存具备计算能力,可将LLM推理中GPU的工作量减少40%,速度提升1.5倍[27][28] - 带宽提升至4TB/s,单模块容量80GB,功率100W[27] - 采用浸没式冷却散热,并集成专用去耦电容芯片以稳定供电[28][29] - 主要面向超算中心、大模型训练集群等场景[31] - **2032年:HBM6——多塔架构优化高吞吐量** - 核心创新是“四塔”结构,在一个Base Die上放置两个独立的Core Die堆叠,使吞吐量比HBM5提升126%[36][38] - 带宽达8TB/s,数据速率提升至16Gbps,单模块容量96-120GB,功率120W[35][36] - 采用硅-玻璃混合中介层以降低成本20%,并集成L3缓存专门存储LLM推理中的KV缓存,减少HBM访问次数73%[38][40] - 主要面向LLM推理集群、实时AI翻译等高吞吐量场景[40] - **2035年:HBM7——内存与闪存融合** - 核心创新是整合高带宽闪存,形成“内存+闪存”协同方案,HBM存高频数据,HBF存低频大容量数据,使系统总容量可达17.6TB,成本比全用HBM降低60%[41][42][46] - 带宽提升至24TB/s,数据速率24Gbps,单模块容量160-192GB,功率160W[44][46] - 支持3D堆叠LPDDR以拓展边缘计算场景,并采用嵌入式液冷散热[46][47] - 主要面向多模态AI系统、自动驾驶中央计算单元等场景[48] - **2038年:HBM8——全3D集成终极形态** - 核心创新是全3D集成技术,通过铜-铜直接键合将GPU裸片垂直堆叠在HBM之上,使数据传输延迟突破1纳秒,I/O功耗降低70%[54] - 带宽达到64TB/s,数据速率32Gbps,单模块容量200-240GB,功率180W[36][56] - 采用双面中介层设计,使单GPU搭配的HBM容量再提升50%,并应用双面嵌入式冷却进行精准温控[56][57] - 专为未来AGI原型机设计,标志着计算架构进入“立体共生”时代[52][60] 支撑HBM性能的三大关键技术 - **硅通孔**:在芯片上制造垂直微孔道,让数据直接在堆叠层间穿梭,传输路径缩短90%以上,是实现3D堆叠的基础[59][67] - **混合键合**:采用铜-铜直接键合工艺替代早期的微凸点连接,使连接电阻降至原来的1/10,实现了更高密度(单片10万个连接点)和更可靠的芯片堆叠,支撑HBM8达到16384个I/O[68][70][71] - **AI辅助设计**:利用AI模型大幅提升HBM复杂结构的设计效率,如PDNFormer模型可在1毫秒内完成电源阻抗分析,Mamba-RL算法可在20分钟内优化去耦电容布局,将设计周期从半年缩短至两周[72][74][76][79] HBM产业格局与市场前景 - 全球HBM市场呈现寡头垄断格局,SK海力士、三星、美光三家公司垄断了90%以上的产能,订单已排至2026年[80][81] - SK海力士为行业龙头,HBM3E良率达90%,占据全球55%的HBM3E出货量,其M15X新工厂投产后月产能将从10万片提升至17.8万片[81] - 三星的HBM3E产能已被谷歌、博通、亚马逊等头部客户包圆,并与OpenAI签订了价值713亿美元的四年供应大单[84] - 美光增速最快,其HBM3E已通过英伟达认证,目标是在2026年将市场份额从7%提升至24%[85] - 2025年全球HBM市场规模已达300亿美元,预计2030年将突破980亿美元,占据整个DRAM市场的50%[80] HBM未来发展的主要挑战 - **成本挑战**:HBM3每GB成本约为DDR5的5倍,HBM4因工艺复杂成本预计再增30%,需通过提升良率(目标95%以上)、扩大产能、技术创新(如采用玻璃中介层)来构建降本体系[86] - **散热挑战**:未来HBM8功率可能突破200W,需研发新型高热导率冷却材料、采用芯片级冷却方案(如集成微型散热鳍片)以及智能温控系统来应对[87] - **生态协同挑战**:需要GPU/CPU厂商优化硬件接口,AI框架针对近内存计算特性优化算法,并推动行业制定统一标准,以降低应用门槛并实现性能最大化[87]
DeepMind掌门人万字详解通往AGI之路
量子位· 2025-12-19 15:20
通往AGI的路径 - 实现AGI需要技术创新与规模扩展各占约50%的努力,二者结合是关键路径 [1][2][55] - 当前模型扩展并未遇到不可逾越的“墙”,进步依然显著且投资回报可观,未见明显放缓迹象 [45][46][50] - 数据耗尽等挑战可通过合成数据生成等技术解决,尤其是在编程和数学等答案可验证的领域 [51] 当前AI的局限与待解决问题 - AI存在“锯齿状智能”现象,能在国际数学奥林匹克竞赛中获奖,却可能在简单逻辑问题上犯错,反映出系统在一致性与可靠推理方面的不足 [5][19][21] - 幻觉问题仍待解决,模型常在不确定时强行作答,未来需发展类似AlphaFold的概率评估机制,使模型能判断自身不确定性并合理拒绝回答 [5][56][57] - 当前大模型本质上是人类知识(如互联网内容)的压缩与泛化,类似于AlphaGo,缺乏在线学习与持续更新的能力 [5][27][33][34] 下一代AI的发展方向 - 未来目标是实现类似AlphaZero的自我知识生成与持续在线学习能力 [5][32] - 世界模型通过模拟物理规律(如重力、流体)来增强对现实的理解,弥补语言模型在描述空间动态与感官体验方面的局限,对机器人、通用助手及科学模拟至关重要 [5][64][65][69] - 通过仿真环境(如Genie、SIMA项目)将智能体投入AI生成的动态世界,可实现无限任务生成与复杂行为训练,并有望用于探索生命与意识的起源 [5][76][80][90] AI在基础科学领域的应用(根节点问题) - AlphaFold的成功验证了AI解决基础科学难题的潜力 [8] - 当前研究正拓展至材料科学(如室温超导体、更优电池)、核聚变及量子计算等领域 [5][9] - 与Commonwealth Fusion等公司的深入合作,旨在利用AI加速核聚变(如约束等离子体、材料设计)进程,核聚变被视为能改变一切的“圣杯”级清洁能源 [10][11][13][16] 商业化、竞争与社会影响 - AI领域存在短期过度炒作与长期被系统性低估的现象,某些初创公司估值可能存在泡沫,但大型科技公司有真实业务和长期投入支撑 [94][95][96] - 需警惕AI商业化重蹈社交媒体覆辙,避免过度追求用户参与度导致“单人回音室”,应构建具有科学精神、适度反馈且支持个性化调节的AI人格 [5][101][104][105] - AI引发的社会变革可能比工业革命规模大10倍、速度快10倍,需提前规划劳动力转型、经济模式调整(如UBI)与社会治理创新 [14][118] 对AGI及超级智能的终极思考 - 目前宇宙中未发现非可计算现象,若意识不依赖量子效应,则理论上图灵机可模拟一切心智过程,信息可能是宇宙最基础的单元 [14][134][136][144] - 公司的工作核心是不断向前推进经典计算的能力边界,探索其终极极限 [139][140] - 基于智能体(Agentic AI)的下一阶段系统将更加自主,其带来的风险(如网络安全)显著上升,需提前准备 [14][164][165]