JAX
搜索文档
谷歌此次点燃的战火,可以燎原
新财富· 2025-12-10 16:05
文章核心观点 - 2025年AI竞争已演变为芯片、软件栈、云服务与开源生态的四维立体战争,谷歌凭借垂直整合的全栈模式对OpenAI的依赖外部算力模式和英伟达的通用GPU生态构成根本性挑战 [2] - 谷歌通过自研TPU芯片及软硬件深度协同,实现了极低的总体拥有成本,在性能和成本上形成降维打击,正在重塑AI算力市场格局 [3][4] - 谷歌在生成式AI领域实现全面领先,其Gemini 3模型在关键基准测试中超越GPT-5,且Gemini App用户增长迅猛,用户粘性指标领先 [6] - OpenAI面临巨大的财务压力,其宏大的资本开支计划与相对单一的营收结构形成尖锐矛盾,商业可持续性成为关键挑战 [7][8] - AI投资逻辑已从关注技术突破转向看重商业模式可行性与盈利前景,市场对谷歌全栈模式的认可度远超对OpenAI商业模式的担忧 [10] - Transformer架构的固定化降低了专用芯片的入场门槛,使市场竞争焦点从单纯性能转向总拥有成本,开启了以成本革命为特征的下半场竞争 [18][17] AI竞争格局演变 - AI战场从单一的模型性能竞赛,演变为芯片、软件栈、云服务与开源生态的四维立体战争 [2] - 谷歌的崛起标志着AI基础设施领域“垂直整合”模式对“水平分工”模式的强力挑战 [2] - 开源力量的壮大确保了技术的多样性与可及性,一个多极共存、而非一家独大的全新AI世界正在加速形成 [2] 谷歌的战略与优势 - 谷歌自2015年起为其核心AI工作负载定制设计专用TPU芯片、互连网络、冷却系统及编程框架,走上垂直整合道路 [3] - 谷歌的核心软件栈是JAX + XLA + Pathways,旨在统一AI编译器生态系统,适配多种芯片 [4] - 谷歌正将其大模型与软硬件栈更广泛地开源、推广,目标在于培育以自身TPU和软件栈为核心的替代生态,打破英伟达CUDA生态的垄断 [4] - 谷歌拥有全球最大的用户入口矩阵,包括Google Search、YouTube等,每月服务超过30亿用户,为其提供了无与伦比的数据和用户意图信号 [20] - 谷歌在大模型、算力芯片、云平台、消费级入口和应用生态上均具备世界级全栈能力,不易受制于单一供应商 [24] - 谷歌拥有强大的财务安全垫,其核心搜索广告业务盈利能力极强,能为AI业务持续输血 [24] 谷歌的市场表现与产品进展 - 2025年谷歌推出了推理模型Gemini 3以及图像生成与编辑模型Nano Banana Pro等产品 [6] - 在学术推理、数学和视觉推理等关键基准测试中,基于谷歌自研TPU训练的Gemini 3表现均优于GPT-5模型 [6] - Gemini App的月活跃用户数从5月的约2亿激增至9月的近8亿,实现了300%的增长 [6] - 在用户每次对话的平均时长这一关键粘性指标上,Gemini已经实现了对ChatGPT的领先 [6] - 2025年第三季度,谷歌营收创历史新高,达到1024亿美元,同比增长16%,AI提升了广告的精准度和商业价值 [25] OpenAI的挑战与财务状况 - OpenAI承诺在未来八年内投入近2万亿美元的资本开支用于算力建设,但其2025年预计营收仅超100亿美元,资金缺口巨大 [7] - OpenAI的营收从2022年的近乎为零,增长到2024年的超40亿美元,再到2025年预计超100亿美元 [7] - 约80%的营收依赖消费者订阅,结构单一 [7] - 2025年前三季度,其推理支出高达87亿美元,而同期营收仅为43亿美元,运营成本严重侵蚀利润 [17] - OpenAI对微软存在重度依赖,通过API销售模型时需向微软支付营收的20%作为分成,并在Azure云上产生天价计算成本 [11] 英伟达面临的挑战与市场变化 - 英伟达真正的威胁是一个从硬件到软件、从应用到生态完全垂直整合,并试图用开源策略“农村包围城市”的替代系统 [2] - Transformer架构的固定化降低了专用芯片的入场门槛,使英伟达从“唯一的选项”变成了“选项之一” [2][19] - 谷歌TPU的出现,使英伟达不仅需要面对在推理端的市场竞争,也将开始首次面对在训练端的市场竞争 [2][19] - 行业竞争的核心战场从技术性能指标转移到了总拥有成本的极致博弈 [15] - 训练一个4000亿参数的Llama-3模型,英伟达H100集群的硬件投资高达396万美元,而谷歌TPU v5p仅需约99万美元,不到三分之一 [13] - 以Llama-3训练为例,英伟达H100的TCO估值约为6.5,而谷歌TPU v5p的TCO估值仅为4.7,展现出压倒性的综合成本优势 [17] - OpenAI仅将“引入TPU”作为谈判选项,就成功将英伟达算力集群的整体采购成本压低了约30% [13] 市场反应与投资趋势 - 谷歌的股价走势明显强于微软,反映了投资者对谷歌AI战略的认可及对OpenAI商业模式的担忧 [10] - 在2025年市值首次突破3万亿美元后,市场出现了谷歌可能迈向10万亿美元市值的极端乐观预期 [10] - AI领域的投资逻辑已发生根本性转变,从早期关注技术突破与用户增长,转向更看重商业模式的可行性与盈利前景 [10] - 谷歌云已成为AI初创企业的首选平台,超过70%的生成式AI独角兽是其客户 [10] 其他主要玩家的状况 - 微软+OpenAI:凭借Azure深度集成和Copilot快速推广,在企业端领先,但存在内部协同与整合挑战 [21] - 亚马逊AWS:拥有最广泛的企业客户基础,AI服务收入增长迅猛,但缺乏自研的先进大模型作为核心牵引 [22] - 英伟达:占据AI芯片90%以上市场份额,是算力层的绝对领导者 [23] - Meta:聚焦开源模型和消费级AI应用,但同样缺乏最顶尖的大模型能力 [24]
Is Alphabet Really a Threat to Nvidia's AI Chip Dominance?
The Motley Fool· 2025-12-04 17:45
英伟达的市场主导地位 - 英伟达数据中心业务季度收入达570亿美元,年增长率为66% [1] - 公司首席执行官讨论了到2026年5000亿美元的芯片需求可见度 [1] - 在人工智能加速器市场占据约90%的市场份额,成为生成式AI时代默认的基础设施提供商 [1] 谷歌TPU的崛起与竞争 - 谷歌自2013年开始设计自研AI芯片,早于ChatGPT普及AI概念 [3] - 最新一代TPU v7 Ironwood在原始计算能力上可与英伟达旗舰Blackwell芯片匹敌,并在特定工作负载的系统级效率上具有优势 [4] - TPU已从内部项目演变为直接与英伟达数据中心GPU竞争的商业平台 [3] 主要客户采用与市场验证 - 十大顶级AI实验室中有九家使用谷歌云基础设施 [5] - 苹果使用8,192个谷歌TPU v4芯片集群来训练其Apple Intelligence基础模型,而非英伟达GPU [5] - Anthropic通过一项价值数十亿美元的合作伙伴关系,获得了多达100万个谷歌TPU的使用权 [5] - 据报道,Meta Platforms最早可能在2027年部署谷歌TPU [5] - 苹果的采用表明该技术已具备企业级应用准备度 [7] 推理市场的经济性与威胁 - 对英伟达的真正威胁在于AI模型的推理(运行)阶段,而非训练阶段 [8] - 推理是持续发生的运营支出,随着AI应用规模扩大,其成本会复合增长 [9] - 分析师预计到2026年,行业推理收入将超过训练收入 [9] - 对于某些大型语言模型推理工作负载,谷歌最新TPU的每美元性能可比英伟达H100高出4倍 [10] - AI图像生成器Midjourney从英伟达GPU迁移至谷歌TPU v6e后,月度推理成本降低了65% [10] 软件护城河的侵蚀 - 英伟达长期以来的竞争优势在于其CUDA软件平台,它创造了巨大的转换成本 [11] - 现代机器学习框架(如PyTorch和JAX)日益抽象底层硬件,降低了转换壁垒 [12] - 通过PyTorch/XLA,开发者只需对代码进行最小改动即可在TPU上运行标准PyTorch模型 [12] - 这使得客户可以更多地基于价格和性能而非软件兼容性来评估芯片,这一转变有利于谷歌的成本优化方案 [13] 对定价与财务的影响 - 行业分析显示,OpenAI通过提出将更多工作负载转移到谷歌TPU等替代硬件的可信选项,在其最新的英伟达硬件订单上获得了约30%的折扣 [15] - 谷歌的存在限制了英伟达的定价能力,即使客户仍选择英伟达 [15] - 谷歌云上季度收入跃升34%,达到152亿美元,AI基础设施需求(包括TPU)是关键驱动力 [16] - 谷歌云未履行合同金额同比增长82%,达到1550亿美元 [16]
Nvidia-Google AI Chip Battle Escalates
Youtube· 2025-11-25 22:59
行业竞争格局变化 - 市场开始认识到谷歌母公司Alphabet在AI芯片领域的潜力 其TPU作为英伟达GPU的替代方案正获得关注[1][4] - 英伟达面临竞争压力 其主导地位可能被削弱 市场正在寻找AI资本开支的更高效解决方案[6][7] - 云计算巨头如阿里巴巴和亚马逊也在推进垂直整合策略 自研芯片并提供完整的云服务和AI模型[12] 技术产品与战略 - Alphabet的TPU已发展到第七代 拥有十年研发历史 自2018年起向客户提供 现在开始向数据中心等场景推广[2] - 谷歌展示其技术实力 不仅包括TPU硬件 还包括配套软件和开发框架 试图打破英伟达CUDA生态系统的锁定效应[10][11] - 芯片竞争焦点集中在能源效率上 未来基础设施的瓶颈将是电力而非硬件获取能力[5][16] 市场动态与资本流动 - 英伟达股价跌破180美元关键水平 而谷歌市值突破1万亿美元 显示资本正流向更高效的AI解决方案[7] - 科技板块面临压力 投资者转向医疗保健等防御性板块 科技股估值在过去三周经历调整[21] - 甲骨文等公司股价波动剧烈 其股票下跌近40%-50% 市场经历情绪化脉冲后估值重置[24] 生态系统与客户选择 - 超大规模云服务商寻求多元化选择 避免过度依赖单一供应商造成的瓶颈和能效问题[8][9] - 软件兼容性成为关键 如果Alphabet能证明其软硬件栈可处理全流程 将成为一个真正的替代选择[10] - 行业从普涨转向分化 投资者需要更仔细甄别不同公司的战略和执行能力[18]
这一战,谷歌准备了十年
美股研究社· 2025-09-28 19:28
文章核心观点 - 谷歌开始对外出售其自研的AI处理器TPU,直接挑战英伟达在AI计算市场的领导地位,争夺万亿美元市场[4][6][7] - 谷歌TPU作为专为AI计算设计的ASIC芯片,在能效和成本上相比通用GPU具有显著优势,其算力成本据称为OpenAI使用GPU成本的1/5[11] - 行业趋势显示,为摆脱对英伟达GPU的依赖并寻求更高性价比和稳定供应链,多家巨头正积极发展自研ASIC,预计到2026年ASIC总出货量可能首次超过GPU[21][23][25] 谷歌TPU的技术优势与演进 - TPU是专为AI计算设计的ASIC芯片,采用脉动阵列架构和提前编译策略,以实现极高的矩阵乘法吞吐量和卓越能效[10][11] - 谷歌TPU已迭代至第七代Ironwood,峰值算力达4614 TFLOPs,最高配集群算力为42.5 ExaFLOPS,是超级计算机El Capitan的24倍以上,性能接近甚至在某些方面超越英伟达B200[15][16][17] - 2025年谷歌TPU全年出货量预计为250万片,到2026年总销量预计将超过300万片,其中v5e系列占比约120万片,v5p系列约70万片[15] 谷歌的TPU生态与市场策略 - 谷歌围绕TPU构建了完整生态,包括JAX高性能计算Python库和模型流水线解决方案Pathway,以对抗英伟达的CUDA生态[17] - 谷歌积极推动内部从英伟达GPU转向自研TPU,内部已部署约150万颗TPU,其2024年订购的16.9万台Hopper架构GPU在五大云厂商中排名最后,约为微软的三分之一[19] - 谷歌对外战略包括向使用英伟达芯片的数据中心供应TPU,并为合作伙伴提供财务支持,例如为Fluidstack提供最高32亿美元的备选担保支持[4][20] 市场竞争格局与行业趋势 - 过去半年,围绕Google Cloud TPU的开发者活跃度激增约96%,业内看好其前景,若将TPU业务与DeepMind合并分拆,估值或达9000亿美元[19] - 除谷歌外,Meta计划在2025年第四季度推出其首款ASIC芯片MTIA T-V1,目标到2025年底至2026年实现100万至150万件出货量;微软和亚马逊也拥有自研ASIC芯片[23][24][25] - 英伟达通过发布NVLink Fusion等技术进行反击,允许其GPU与第三方加速器混合使用,并声称其GPU更具性价比[25]
重磅,谷歌TPU,对外销售了
半导体行业观察· 2025-09-05 09:07
谷歌TPU业务战略转变 - 谷歌开始向外部数据中心供应其AI芯片张量处理单元,首次在自有设施以外的纽约数据中心为伦敦公司Floydstack部署TPU [2] - 此举被解读为谷歌数据中心扩张跟不上需求,或通过外部云公司拓展TPU客户群,从而成为英伟达的竞争对手 [2] - 谷歌此前仅通过其云端提供TPU,战略重点在于优化内部服务和降低GPU采购成本 [3] TPU技术优势与生态系统 - TPU是专为AI运算打造的定制芯片,在处理深度学习所需的矩阵运算时拥有低功耗和高速优势 [3] - 谷歌发布了包含TPU硬件、JAX软件及模型流水线解决方案Pathway的完整AI开发流程,使整个流程可在其生态系统内完成 [3] - 第六代Trillium TPU需求强劲,第七代Ironwood TPU每芯片提供4,614 TFLOPS运算能力和192GB HBM容量,是Trillium的6倍,频宽达7.2Tbps,是Trillium的4.5倍,效能功耗比是Trillium的2倍 [7][8] 市场动态与竞争格局 - 过去六个月,围绕谷歌云TPU的开发者活动增长了约96% [4] - 英伟达在AI训练GPU市场份额高达80-90%,在数据中心市场份额高达92% [5] - 谷歌TPU被视为超越中国企业的英伟达芯片最佳替代品,其业务若独立估值可能高达9,000亿美元 [4][6][7] 合作伙伴与客户采用 - Alphabet目前仅与博通合作生产TPU,但正探索与联发科合作由其为Ironwood TPU代工 [8] - AI公司如Anthropic开始招聘TPU核心工程师,xAI在JAX-TPU工具改进下对TPU展现兴趣 [8]
Google首席科学家万字演讲回顾AI十年:哪些关键技术决定了今天的大模型格局?
机器人圈· 2025-04-30 17:10
AI技术发展趋势 - 机器学习彻底改变对计算机能力的认知和期待,过去12-14年间计算资源、数据量和模型规模的扩大持续带来性能提升[5] - 算法和模型架构改进的影响超过硬件进步,导致计算范式从传统CPU为中心发生转变[5] - 神经网络和反向传播是深度学习革命的核心要素,2012年训练出规模空前的大型神经网络实现70%性能提升[7] - 2013年开发的Word2Vec词嵌入模型展现出语义相近词语向量聚集和向量方向具有语义意义两大特性[8] - 2014年开发的序列到序列学习模型为机器翻译等任务提供端到端解决方案[8] - 2017年提出的Transformer架构相比LSTM仅需1/10到1/100计算量就能取得更优性能[9] - 2018年开始流行利用自监督数据进行大规模语言建模,产生海量训练数据[10] - 2021年开发出将图像处理整合进Transformer框架的方法,统一文本和图像处理[10] - 2017年开发的混合专家模型(MoE)实现显著算法优势,训练计算成本降低8倍或相同成本下准确率提升[10] 硬件与基础设施创新 - 为神经网络推理构建定制化硬件TPU,比同期CPU和GPU快15到30倍,能效提升30到80倍[9] - 最新Ironwood Pod包含9216个芯片,总算力达42.5 TFLOPS,相比2018年首个训练Pod计算能力提升约3600倍[9] - 开发Pathways系统简化大规模计算执行,为开发者提供单一Python进程抽象层[11] - 推测解码技术利用小型"草稿模型"预测多个Token再由大模型验证,提高解码效率[13] - 知识蒸馏技术将大模型知识迁移到小模型,使用3%训练数据即可达到接近全量数据训练的效果[12] 多模态模型发展 - Gemini项目致力于打造全球最强多模态模型,能理解语言、视觉输入、音频并生成内容[16] - Gemini 1.5引入极长上下文长度,可处理百万Token内容如50篇研究论文或很厚的书[16] - 模型在编码能力、数学、多模态等方面表现优异,在LM Arena平台的Elo评分显著提高[16] - 多模态应用包括代码修复、极低资源语言翻译、视频理解与摘要、历史数据数字化等[20][21] - 通过高级自然语言提示生成代码,如使用P5js探索Mandelbrot集的可视化程序[21] 行业影响与未来方向 - 大语言模型正成为强大通用工具,能将专家知识普及给广大民众[23] - AI安全需要技术和政策监管双管齐下,包括检测错误信息和促进建设性讨论[24] - 数据尚未成为瓶颈,仍有海量未利用数据如视频数据,且可通过改进训练方法提升数据利用效率[25] - 下一个重大挑战是模型自主完成复杂任务的能力,如分解50个子步骤调用多种工具完成相当于一个月工作量的目标[26]