Workflow
JAX
icon
搜索文档
这一战,谷歌准备了十年
美股研究社· 2025-09-28 19:28
以下文章来源于半导体产业纵横 ,作者俊熹 半导体产业纵横 . 多元化的半导体产业生态服务平台,立足产业视角,提供及时、专业、深度的前沿洞见、技术速递、趋势解析,链接产业资源,构建IC生态圈,赋能中国 半导体产业,我们一直在路上。 9月3日,一则消息在科技圈引起了轩然大波: 谷歌开始对外出售 TPU了。 据报道,谷歌 近期已 在 接触那些 主要租赁 英伟达 芯片 的小型云服务提供商,敦促他们在其数据中心也托管谷歌自家的 AI处理器 ,也就是 TPU 。 谷歌已与至少一家云服务提供商 ——总部位于伦敦的Fluidstack——达成协议,将在纽约的一个数据中心部署其TPU。 来源 | 半导体产业纵横 谷歌的努力不止于此 。 据报道,该公司还向其他以 英伟达 为核心的服务商寻求类似的合作,其中包括正在为 OpenAI建 造 数据中心的 Crusoe,以及向微软租赁 芯片 并与 OpenAI签有供应合同的 英伟达 "亲儿子" CoreWeave。 9月9日, 花旗分析师因 TPU竞争加剧将英伟达目标价下调至200美元,预计2026年GPU销售额将因此减少约120亿美元。 明眼人都能看出来的是, 谷歌和英伟达之间的大战, ...
重磅,谷歌TPU,对外销售了
半导体行业观察· 2025-09-05 09:07
谷歌TPU业务战略转变 - 谷歌开始向外部数据中心供应其AI芯片张量处理单元,首次在自有设施以外的纽约数据中心为伦敦公司Floydstack部署TPU [2] - 此举被解读为谷歌数据中心扩张跟不上需求,或通过外部云公司拓展TPU客户群,从而成为英伟达的竞争对手 [2] - 谷歌此前仅通过其云端提供TPU,战略重点在于优化内部服务和降低GPU采购成本 [3] TPU技术优势与生态系统 - TPU是专为AI运算打造的定制芯片,在处理深度学习所需的矩阵运算时拥有低功耗和高速优势 [3] - 谷歌发布了包含TPU硬件、JAX软件及模型流水线解决方案Pathway的完整AI开发流程,使整个流程可在其生态系统内完成 [3] - 第六代Trillium TPU需求强劲,第七代Ironwood TPU每芯片提供4,614 TFLOPS运算能力和192GB HBM容量,是Trillium的6倍,频宽达7.2Tbps,是Trillium的4.5倍,效能功耗比是Trillium的2倍 [7][8] 市场动态与竞争格局 - 过去六个月,围绕谷歌云TPU的开发者活动增长了约96% [4] - 英伟达在AI训练GPU市场份额高达80-90%,在数据中心市场份额高达92% [5] - 谷歌TPU被视为超越中国企业的英伟达芯片最佳替代品,其业务若独立估值可能高达9,000亿美元 [4][6][7] 合作伙伴与客户采用 - Alphabet目前仅与博通合作生产TPU,但正探索与联发科合作由其为Ironwood TPU代工 [8] - AI公司如Anthropic开始招聘TPU核心工程师,xAI在JAX-TPU工具改进下对TPU展现兴趣 [8]
Google首席科学家万字演讲回顾AI十年:哪些关键技术决定了今天的大模型格局?
机器人圈· 2025-04-30 17:10
AI技术发展趋势 - 机器学习彻底改变对计算机能力的认知和期待,过去12-14年间计算资源、数据量和模型规模的扩大持续带来性能提升[5] - 算法和模型架构改进的影响超过硬件进步,导致计算范式从传统CPU为中心发生转变[5] - 神经网络和反向传播是深度学习革命的核心要素,2012年训练出规模空前的大型神经网络实现70%性能提升[7] - 2013年开发的Word2Vec词嵌入模型展现出语义相近词语向量聚集和向量方向具有语义意义两大特性[8] - 2014年开发的序列到序列学习模型为机器翻译等任务提供端到端解决方案[8] - 2017年提出的Transformer架构相比LSTM仅需1/10到1/100计算量就能取得更优性能[9] - 2018年开始流行利用自监督数据进行大规模语言建模,产生海量训练数据[10] - 2021年开发出将图像处理整合进Transformer框架的方法,统一文本和图像处理[10] - 2017年开发的混合专家模型(MoE)实现显著算法优势,训练计算成本降低8倍或相同成本下准确率提升[10] 硬件与基础设施创新 - 为神经网络推理构建定制化硬件TPU,比同期CPU和GPU快15到30倍,能效提升30到80倍[9] - 最新Ironwood Pod包含9216个芯片,总算力达42.5 TFLOPS,相比2018年首个训练Pod计算能力提升约3600倍[9] - 开发Pathways系统简化大规模计算执行,为开发者提供单一Python进程抽象层[11] - 推测解码技术利用小型"草稿模型"预测多个Token再由大模型验证,提高解码效率[13] - 知识蒸馏技术将大模型知识迁移到小模型,使用3%训练数据即可达到接近全量数据训练的效果[12] 多模态模型发展 - Gemini项目致力于打造全球最强多模态模型,能理解语言、视觉输入、音频并生成内容[16] - Gemini 1.5引入极长上下文长度,可处理百万Token内容如50篇研究论文或很厚的书[16] - 模型在编码能力、数学、多模态等方面表现优异,在LM Arena平台的Elo评分显著提高[16] - 多模态应用包括代码修复、极低资源语言翻译、视频理解与摘要、历史数据数字化等[20][21] - 通过高级自然语言提示生成代码,如使用P5js探索Mandelbrot集的可视化程序[21] 行业影响与未来方向 - 大语言模型正成为强大通用工具,能将专家知识普及给广大民众[23] - AI安全需要技术和政策监管双管齐下,包括检测错误信息和促进建设性讨论[24] - 数据尚未成为瓶颈,仍有海量未利用数据如视频数据,且可通过改进训练方法提升数据利用效率[25] - 下一个重大挑战是模型自主完成复杂任务的能力,如分解50个子步骤调用多种工具完成相当于一个月工作量的目标[26]