谷歌(GOOGL)
搜索文档
Nvidia Stock Shrugs Off Google Threat. How The AI Chips Battle Is Playing Out.
Barrons· 2026-04-23 15:21
文章核心观点 - Nvidia作为人工智能芯片的主导供应商,其股价对谷歌发布新AI芯片的威胁反应平淡,表明投资者可能已习惯竞争加剧的行业环境,并注意到两家公司之间表面友好的关系 [2] 市场反应与投资者情绪 - Nvidia股价对谷歌新AI芯片的发布未表现出明显的即时反应 [2] - 投资者似乎正在适应芯片制造商面临的竞争加剧局面 [2] - 投资者可能注意到Nvidia与谷歌之间存在着看似友好的关系 [2] 行业竞争格局 - Nvidia是人工智能芯片领域的主导供应商 [2] - 谷歌是进入AI芯片市场的竞争者之一,发布了新的AI芯片 [2] - 人工智能芯片领域的竞争正在展开 [2]
谷歌“双芯”奇袭英伟达:AI智能体时代到了?
格隆汇· 2026-04-23 14:59
公司战略与投资 - 谷歌计划在2025年投入1750亿至1850亿美元的资本开支,用于打造AI智能体时代所需的基础设施 [9] - 公司宣布设立7.5亿美元基金,以支持12万家云合作伙伴开发智能体产品 [10] - 公司与制药企业默克达成长期合作,未来数年默克将向谷歌投入至多10亿美元,用于AI基础设施建设、团队配置及技术授权 [10] 新产品发布 - 谷歌在云年度Next大会上正式推出第八代张量处理单元,并首次将AI训练与推理任务拆分至两款独立芯片:TPU 8t与TPU 8i [2][4] - TPU 8t专为算力密集型训练设计,最多可将9600块芯片组合成系统,每瓦性能较前代提升124%,目标是将前沿模型开发周期从数月压缩至数周 [4] - TPU 8i针对AI智能体实时推理优化,内置384MB SRAM,容量是前代Ironwood芯片的三倍,在高速推理任务中性能提升80% [4] 市场与竞争格局 - 截至2025年底,谷歌云的整体市场份额已攀升至14%,但仍落后于亚马逊与微软 [10] - 公司表示将成为英伟达新一代芯片的首批部署方之一,同时继续为客户提供英伟达系统服务 [6] - 公司认为其平台具备独一无二的优势,拥有其他厂商无法提供的功能,并整合AI产品至“Gemini Enterprise”及升级Vertex AI平台 [9][12] 技术进展与用户 - 谷歌透露,公司目前75%的新增代码由人工智能生成,而去年秋季这一比例仅为50% [11] - 城堡证券、美国能源部下属国家实验室、Anthropic等已成为TPU的核心用户 [6] - 客户反馈显示,谷歌的全套工具组合以及企业数据已存储于谷歌云的优势,使其团队能够比测试过的其他同类产品更快部署AI技术 [12] 行业趋势与展望 - 公司认为行业已迈入“Gemini智能体时代”,讨论焦点从“能否打造智能体”转变为“如何管理数千个智能体” [9] - 市场分析认为,AI的战场正从“谁的模型更聪明”转向“谁能在企业系统里跑得更顺” [10] - 随着AI智能体兴起,为训练和推理需求分别打造专用芯片,将为行业带来显著价值 [5]
谷歌撰文,剖析最新TPU架构
半导体行业观察· 2026-04-23 14:46
谷歌TPU设计理念与AI硬件演进 - 公司TPU设计始终围绕可扩展性、可靠性和效率三大支柱[1] - 为应对AI模型从大型语言模型向大规模混合专家模型和推理密集型架构演进,硬件需超越单纯提升FLOPS,满足最新工作负载的特定运算强度[1] - 智能体AI和世界模型的兴起需要能处理长上下文窗口、复杂序列逻辑及模拟预测场景的基础设施[1] - 第八代TPU是应对上述挑战的解决方案,旨在高效训练和运行如Genie 3等世界模型,支持数百万智能体在模拟环境中练习推理[1] 第八代TPU系统概览 - 第八代TPU针对预训练、后训练和实时服务需求分化,引入两个不同系统:TPU 8t和TPU 8i[4] - 两者均为谷歌云AI超级计算机的关键组件,该架构结合硬件、软件和网络,为完整AI生命周期提供支持[4] - 系统集成了基于Arm的Axion CPU接口,以消除数据准备延迟造成的主机瓶颈,确保TPU资源充足[4] TPU 8t:大规模预训练优化 - TPU 8t针对大规模预训练和嵌入密集型工作负载优化,采用3D环面网络拓扑,单个超级节点集成9600个芯片[5] - 核心是SparseCore加速器,专门处理嵌入查找的不规则内存访问模式,避免通用芯片的零操作瓶颈[6] - 通过更均衡的向量处理单元扩展,最小化暴露的向量运算时间,使量化、softmax等运算能与矩阵乘法更好重叠[6] - 引入原生4位浮点运算,将MXU吞吐量提升一倍,同时保持大型模型精度,减少能耗和数据传输[6] - 推出Virgo Network新架构,使TPU 8t训练的数据中心网络带宽提升高达4倍[7] - 芯片间互连带宽提升2倍,原始数据中心网络横向扩展带宽提升高达4倍[9] - Virgo Network能在单个架构中连接超过134,000个TPU 8t芯片,提供高达47 PB/s的无阻塞双向带宽,计算能力超过160万ExaFlops[9] - 引入TPUDirect RDMA和TPU Direct Storage,支持TPU内存与网络接口卡及高速存储的直接数据传输[10] - 结合Managed Lustre 10T和TPUDirect Storage,实现10倍的存储访问速度提升[10] TPU 8i:训练后处理与高并发推理优化 - TPU 8i针对训练后处理和高并发推理优化,采用最高片上SRAM、新的集体加速引擎和Boardfly网络拓扑[13] - 片上SRAM容量比上一代增加3倍,可完全在硅片上容纳更大的KV缓存,减少长上下文解码期间内核空闲时间[13] - 采用集体加速引擎,能以近乎零延迟聚合跨核心结果,显著加速自回归解码和“思维链”处理[14] - 集体操作的片上延迟进一步降低了5倍[14] - 放弃3D环面,采用Boardfly ICI拓扑,通过全连接板聚合,最多可连接1152个芯片,减小网络直径[15] - 在通信密集型工作负载下,Boardfly实现了高达50%的延迟降低[15] - 对于1024芯片配置,Boardfly将网络直径从16跳减少到仅7跳,减少56%[17] - 最终架构可扩展至36个组,通过光路交换机连接,确保任何芯片间通信最大延迟为7跳[19] TPU 8t与TPU 8i规格对比 - 主要工作负载:TPU 8t针对大规模预训练,TPU 8i针对采样、服务和推理[20] - 网络拓扑:TPU 8t为3D环面,TPU 8i为Boardfly[20] - 专用芯片特性:TPU 8t配备SparseCore,TPU 8i配备集体加速引擎[20] - HBM容量:TPU 8t为216 GB,TPU 8i为288 GB[20] - 片上SRAM:TPU 8t为128 MB,TPU 8i为384 MB[20] - 峰值FP4 PFLOPs:TPU 8t为12.6,TPU 8i为10.1[20] - HBM带宽:TPU 8t为6,528 GB/s,TPU 8i为8,601 GB/s,约为TPU 8t的1.3倍[20] - CPU接口:两者均采用Arm Axion[20] 软件技术栈与性能提升 - 第八代TPU基于性能优先的AI软件技术栈构建[22] - 提供对Pallas自定义内核语言的一流支持,使用户能充分发挥TPU 8i CAE和TPU 8t SparseCore性能[24] - 推出TPU的原生PyTorch支持预览版,便于现有PyTorch模型迁移[24] - 在Ironwood上运行的JAX、PyTorch或Keras代码可移植到第八代产品[24] - 与第七代Ironwood TPU相比,TPU 8t在大规模训练上的性价比提高了2.7倍[25] - TPU 8i在大型MoE模型低延迟目标上的性价比比Ironwood TPU提高了80%[25] - 两款芯片的每瓦性能提升高达2倍[25]
Roth Capital Maintains Neutral Rating on EQT Corporation (EQT)
Insider Monkey· 2026-04-23 14:37
行业前景与市场预测 - 生成式人工智能被视为“一生一次”的突破性技术,正在被用于重塑客户体验 [1] - 到2040年,人形机器人数量预计将达到至少100亿台,每台价格在20,000至25,000美元之间 [1] - 根据预测,到2040年,该技术领域的总价值可能达到250万亿美元 [2] - 普华永道和麦肯锡等主要机构认为人工智能将释放数万亿美元的价值潜力 [3] - 人工智能被比尔·盖茨视为“一生中最大的技术进步”,其变革性超过互联网或个人电脑,有望改善医疗、教育并应对气候变化 [8] 技术突破与行业动态 - 一项强大的技术突破正在重新定义人类工作、学习和创造的方式 [4] - 该突破已引发对冲基金和华尔街顶级投资者的狂热 [4] - 一家持股不足的公司被认为是开启这场250万亿美元革命的关键 [4] - 该公司的超低成本人工智能技术被认为应引起竞争对手的担忧 [4] - 一家规模小得多的公司正在悄然改进使整个革命成为可能的关键技术 [6] - 硅谷内部人士和华尔街资深人士的信息均指向这一机会 [6] 主要参与者与投资布局 - 亚马逊前CEO杰夫·贝索斯和现任CEO安迪·贾西均强调了突破性技术对亚马逊命运的重要性 [1] - 拉里·埃里森正通过甲骨文公司斥资数十亿美元购买英伟达芯片,并与Cohere合作,将生成式AI嵌入甲骨文的云服务和应用程序中 [8] - 沃伦·巴菲特认为这一突破可能产生“巨大的有益社会影响” [8] - 尽管特斯拉、英伟达、Alphabet和微软的成就值得关注,但更大的机会可能存在于其他地方 [6] 潜在投资标的与比较 - 预测中的250万亿美元市场价值,约等于175个特斯拉、107个亚马逊、140个Meta、84个谷歌、65个微软和55个英伟达的价值总和 [7] - 一份详细的会员报告深入分析了这家具有变革性的人工智能公司的突破性技术和巨大增长潜力 [10]
1850亿美元天价支出、75%代码由AI生成!谷歌正式宣告:全面转向智能体工作流
AI前线· 2026-04-23 14:26AI 处理中...
谷歌的战略投资与“智能体时代”宣言 - 公司计划在2026年投入1750亿至1850亿美元用于资本支出,远高于2022年的310亿美元,以构建“智能体时代”所需基础设施 [2] - 谷歌CEO Sundar Pichai宣布“智能体时代”来临,公司正将相关布局推向新高度 [2] - 谷歌在Google Cloud Next大会上发布了一整套软硬件产品,核心包括用于构建自主AI智能体的全新综合性平台以及第八代张量处理器(TPU) [2] 内部AI应用与工作流转型 - 截至2026年4月,谷歌近75%的新增代码由AI生成并由人类工程师审核通过 [3] - 公司内部AI生成代码的比例从2024年10月的约25%升至2025年秋季的50%,再到2026年4月的近75% [3] - 谷歌正全面转向智能体工作流,一项由智能体与工程师协作的高复杂度代码迁移任务,完成速度比一年前仅由人工操作快了六倍 [3][4] - 公司使用AI进行网络安全运营自动化,安全运营中心的智能体每月自动对数万份非结构化威胁报告进行分类,将威胁处置时间缩短了90%以上 [5] Gemini智能体平台与生态 - Gemini Enterprise是一套面向智能体时代的端到端系统,其付费月活跃用户数环比增长达40% [4] - 谷歌推出了面向开发者的Gemini Enterprise Agent Platform,提供超过200种模型,旨在优化调度智能体 [4] - 公司正将自身的工程部门当作Gemini Enterprise智能体平台的“首个试用客户”,以在谷歌级规模下进行实战检验 [4] - 运行在macOS上的Gemini应用通过谷歌自研的“以智能体为核心”的Antigravity平台开发而成 [5] 第八代TPU硬件创新 - 谷歌推出专为“智能体时代”设计的两款第八代TPU芯片:TPU 8t(训练型)和TPU 8i(推理型) [7][8] - TPU 8t专为高速模型训练设计,单个超算集群可扩展至9600块TPU,算力达121 FP4 EFlops,几乎是上一代的三倍 [8][9] - TPU 8t支持线性扩展,单个逻辑集群可扩展至百万颗芯片,其有效算力利用率达97% [9] - TPU 8i专为“近零延迟”推理设计,集群规模扩大至1152颗芯片,片上SRAM容量提升三倍至384MB [8][10] - 第八代TPU是谷歌首款完全采用自研Axion ARM架构CPU主控的产品,每两颗TPU搭配一颗CPU,旨在实现更高运行效率 [10] 商业化路径与合作伙伴生态 - 谷歌宣布设立7.5亿美元基金,助力其拥有12万名成员的谷歌云合作伙伴生态开发智能体AI产品 [13] - 花旗发布了AI驱动财富管理助手“Citi Sky”,Thinking Machines Lab签署了一份数十亿美元的新协议以扩大使用谷歌云的AI基础设施 [13][14] - Thinking Machines Lab是首批使用谷歌云搭载英伟达GB300芯片系统的客户之一,该系统在模型训练与推理服务速度上相较上一代GPU提升一倍 [14] - 谷歌的TPU业务加上Google DeepMind AI团队,被一位分析师估计价值约9000亿美元 [16] 行业趋势与竞争格局 - 微软CEO曾表示公司部分项目中20%至30%的代码由AI编写,其CTO认为五年内95%的代码将由AI生成 [5] - Meta设定目标,到2025年第四季度部分部门软件工程师的代码变更中55%需为智能体辅助完成;2026年上半年,其创意部门预计有65%的工程师所提交的代码中超过75%由AI编写 [5][6] - Snap表示按照其新运营模式,至少65%的新代码由AI生成 [6] - 行业竞争激烈,Anthropic同时与谷歌及亚马逊签署协议以获取大量算力 [15]
3万人涌入的谷歌云大会:发TPU芯片挑战英伟达 还有智能体“全家桶”
第一财经· 2026-04-23 14:05
谷歌云Next 26大会核心观点 - 谷歌在大会上发布了面向“智能体时代”的全面产品更新,核心是推动AI从试点项目向企业日常运营的“系统性落地” [1] - 大会现场参会者约3万人,主要为关注AI落地的开发者和企业业务负责人,信息密度高 [1] - 谷歌认为AI落地已进入新阶段,任务从构建单个智能体转变为管理数千个智能体,并为此提供集成系统 [1][7] 新一代TPU芯片发布与市场影响 - 谷歌发布第八代TPU芯片,包括针对训练的TPU 8t和针对推理的TPU 8i,计划于今年晚些时候上市 [2][4] - TPU 8t性能是前代第七代Ironwood TPU的2.8倍,价格相同,旨在将前沿模型开发周期从数月缩短至数周 [4] - TPU 8i相比前代实现了80%的性价比提升,使企业能以相同成本服务近两倍的客户量,通过创新设计打破“内存墙” [4] - TPU销售已成为谷歌云业务增长重要驱动力,2025年谷歌云总营收587亿美元,同比增长48% [6] - 谷歌内部高管认为,扩大TPU采用率有望帮助谷歌抢占英伟达年收入份额的10% [6] - 此前谷歌已与Anthropic达成价值数百亿美元的TPU供应交易,并可能向Meta提供价值数十亿美元的TPU [5] 智能体平台与企业级解决方案 - 谷歌推出Gemini企业级智能体平台,作为任务控制中心帮助企业构建、扩展、管理和优化数百至数千个智能体 [7] - 已有头部企业部署该平台:GE Appliances运行超800个智能体,毕马威首月部署超100个智能体且员工采用率达90%,默克签署了价值高达10亿美元的合作协议 [8] - 在云安全领域,谷歌整合了以320亿美元收购的Wiz平台,发布用于威胁检测的全新智能体解决方案,防御策略演进为以AI为主导、人类监督 [8] - 谷歌安全运营智能体每月自动分类数万份威胁报告,威胁缓解时间缩短90%以上 [10] 谷歌内部AI应用与效率提升 - 谷歌是自家AI产品的“零号客户”,所有应用内部先行试验 [8] - 谷歌目前75%的新代码由AI生成、工程师审核,半年前该比例为50% [9] - 在复杂代码迁移中,采用多角色智能体系统比一年前仅由工程师完成的速度快了6倍 [9] - 在营销方面,利用AI生成创意素材变体使周转速度提高70%,转化率提高20% [9] - 通过API方式,谷歌模型每分钟处理的tokens从上一季度的100亿个增长至超过160亿个 [7] 资本开支与生态合作 - 谷歌预计到2026年,其机器学习计算总投资的一半以上将用于云业务 [7] - 谷歌2024年资本开支计划为1750亿-1850亿美元,较2022年的310亿美元翻了近6倍 [7] - 谷歌与苹果达成多年期协议,基于Gemini技术构建的新一代Siri将于2026年发布,谷歌作为首选云服务商提供核心技术支持 [10] - 有媒体指出谷歌与苹果的交易每年价值约10亿美元,此举标志着谷歌在AI生态位、财务和竞争格局上取得关键进展 [11] 市场表现与行业地位 - 发布芯片当天(4月22日),谷歌股价涨超2%,收盘达339.3美元/股,总市值4.1万亿美元 [6] - 谷歌市值目前位居全球第二,仅次于英伟达,略高于苹果 [6] - 行业观点认为,谷歌已从AI追赶者换到牌桌核心位置,通过专用芯片、大模型基座到应用,成为“把技术做成基础设施”的赢家 [11]
3万人涌入的谷歌云大会:发TPU芯片挑战英伟达,还有智能体“全家桶”
第一财经· 2026-04-23 14:00
公司战略与市场定位 - 公司战略重心从AI试点转向系统性落地,致力于将AI融入企业日常运营 [1] - 公司通过推出企业级智能体平台、云安全智能体及TPU芯片等“全家桶”产品,构建集成系统以支持智能体时代需求 [1] - 公司是自家AI产品的“零号客户”,所有应用均在内部先行试验,以验证和优化产品 [6] - 公司与苹果签署多年期协议,成为其首选云服务商并为新一代Siri提供核心技术,该合作每年价值约10亿美元,标志着公司在AI生态中取得关键进展 [8][9] 产品发布与技术创新 - 公司发布第八代TPU芯片,包括针对训练的TPU 8t和针对推理的TPU 8i,计划于今年晚些时候上市 [2] - TPU 8t性能是上一代Ironwood TPU的2.8倍,价格相同,旨在将前沿模型开发周期从数月缩短至数周 [2] - TPU 8i与上一代相比实现80%的性价比提升,使企业能以相同成本服务近两倍的客户量 [3] - 公司升级推出Gemini企业级智能体平台,作为任务控制中心帮助企业构建、扩展、管理和优化数百至数千个智能体 [5] - 公司发布一系列用于威胁检测的全新智能体解决方案,整合了其威胁情报、安全运营及收购的Wiz云安全平台 [6] 财务表现与市场影响 - 2025年谷歌云总营收587亿美元,同比增长48%;第四季度单季营收176.64亿美元,同比大幅增长48% [4] - TPU销售已成为谷歌云业务增长的重要驱动力,扩大TPU市场采用率有望帮助公司抢占英伟达年收入份额的10% [4] - 产品发布次日,公司股价涨超2%,达339.3美元/股,总市值4.1万亿美元,位居全球市值榜第二 [4] - 公司计划2026年将机器学习计算总投资的一半以上用于云业务,2024年资本开支计划为1750亿-1850亿美元,较2022年的310亿美元增长近6倍 [5] 客户采用与业务进展 - GE Appliances在制造、物流和供应链中运行超过800个公司智能体 [6] - 毕马威实现90%的员工采用率,首月部署超100个公司智能体 [6] - 默克与公司签署价值高达10亿美元的合作协议,用于构建覆盖研发和制造的智能体平台 [6] - 公司向大模型独角兽Anthropic供应至多100万块专用AI芯片TPU及附加云服务,交易价值数百亿美元 [3] - 有消息称Meta考虑从2027年起在其数据中心部署公司TPU,价值达数十亿美元 [3] 运营效率与内部应用 - 公司通过客户直接使用API的方式,其模型每分钟处理超过160亿个tokens,上一季度为100亿个tokens [5] - 公司75%的新代码由AI生成、工程师审核确认,半年前该比例为50% [7] - 在复杂代码迁移中,采用多角色智能体系统使速度比一年前仅由工程师完成快了6倍 [7] - 营销团队利用AI模型快速生成数千个创意素材变体,使周转速度提高70%,转化率提高20% [7] - 安全运营中,智能体每月自动分类数万份威胁报告,威胁缓解时间缩短90%以上 [8]
一颗AI芯片打天下的时代,宣告终结
半导体行业观察· 2026-04-23 09:43
谷歌发布新一代AI加速器TPU 8系列 - 公司在年度Cloud Next大会上推出两款新的内部AI加速器:TPU 8t(用于训练)和TPU 8i(用于推理)[2] - 公司采取双轨制加速器开发策略,分别针对训练和推理工作负载进行优化设计[2] - 第八代张量处理单元(TPU)的训练速度比去年的Ironwood TPU快2.8倍,且每美元在大语言模型推理方面的性能提高了80%[2] 硬件规格与性能对比 - **TPU 8t(训练芯片)**:配备216 GB高带宽内存,带宽达6.5 TB/s,128 MB片上SRAM,4位浮点计算能力达12.6 petaFLOPS,芯片间带宽高达19.2 Tbps[6] - **TPU 8i(推理芯片)**:拥有10.1 petaFLOPS的FP4计算能力,配备384 MB片上SRAM和288 GB HBM,可提供8.6 TB/s的带宽[9] - 与英伟达Rubin GPU(35 petaFLOPS FP4训练性能,288 GB HBM4,带宽22 TB/s)相比,单个谷歌TPU在纸面算力上较低,但公司强调在超大规模集群扩展能力上更胜一筹[6] 大规模集群与网络架构创新 - TPU 8t使用光路开关技术,可在一个统一模块中连接多达9,600个加速器[7] - 通过新的Virgo网络连接多个pod以支持更大计算域,采用扁平化两层全连接拓扑,每个数据中心最多可连接134,000个TPU,连接多个站点时最多可达100万个TPU[7] - 针对推理工作负载,公司开发了名为Boardfly的网络拓扑,将最大芯片间延迟从3D环面中的16跳减少到仅7跳,以降低运行混合专家或推理模型时的延迟[11] 针对推理工作负载的专门优化 - 推理芯片TPU 8i牺牲部分浮点运算能力,换取更大的SRAM缓存和更快、更高容量的内存池,以应对内存带宽瓶颈[9] - TPU 8i放弃了SparseCores,转而采用集体加速引擎,可将集体通信延迟降低五倍,从而提高经济效益,允许在相同硬件上容纳更多用户[9][11] - 片上SRAM有助于将更多的键值缓存保留在芯片上,减少内核等待数据的时间[9] 生态系统与配套技术 - 公司放弃了x86处理器,转而使用自主研发的基于Arm架构的Axion CPU作为其TPU主机[3] - 开发了能够将10 TB/s聚合数据传输到加速器内存的托管Lustre存储系统[7] - 改进的可靠性、可用性和可维护性能力,结合新的网络和存储技术,据称可将训练优化型TPU的“有效吞吐量”提升至97%[7] 行业背景与竞争格局 - 谷歌并非首家采用训练与推理分离策略的公司,亚马逊网络服务在AI芯片研发早期就已意识到需要针对两者进行优化的加速器[2] - 英伟达的Blackwell Ultra系列GPU也针对AI推理进行了优化,牺牲高精度运算能力,换取了比Blackwell系列提升50%的内存和FP4计算能力[2] - 亚马逊今年早些时候也对Graviton和Trainium 3进行了类似的改进,放弃了用于推理的3D环面网络拓扑[3][12] 产品上市与应用 - 两款TPU 8加速器将于今年晚些时候在Google Cloud Platform上正式推出[12] - 产品既可以作为实例使用,也可以作为该云提供商全栈AI超级计算机平台的一部分,该平台整合了大规模部署或训练大语言模型所需的所有网络、存储、计算和软件[12]
剑指英伟达,谷歌重磅发布
36氪· 2026-04-23 09:41
谷歌发布新一代AI芯片 - 谷歌在Cloud Next 2026大会上发布两款分别针对训练和推理任务优化的AI芯片TPU 8t和TPU 8i,均计划在今年晚些时候推出 [1] - 公司将训练与推理任务拆分为不同处理器,旨在满足AI智能体兴起带来的不同优化需求 [1] - TPU 8t针对AI模型训练优化,据称可将前沿模型开发周期从数月缩短至数周,其性价比比前代提升2.8倍 [1] - TPU 8i更适合推理任务及处理AI智能体 [1] - 谷歌未将新芯片与英伟达产品直接对比,仅表示训练芯片在相同价格下性能是第七代Ironwood TPU的2.8倍,推理芯片性能提升80% [5] - TPU 8i每颗芯片包含384MB SRAM,是前代Ironwood的三倍 [5][6] 云巨头加码自研AI芯片以挑战英伟达 - 以谷歌为首的超大规模云服务商正加码研发AI芯片,挑战英伟达的统治地位 [2] - 谷歌自研芯片历史较长,2015年开始使用自研处理器运行AI模型,2018年开始向云客户出租芯片 [2] - 据分析师估计,谷歌TPU业务连同DeepMind团队的估值约为9000亿美元 [2] - 亚马逊于2018年发布用于AI推理的Inferentia芯片,2020年推出用于AI训练的Trainium芯片 [2] - 亚马逊与Anthropic扩大合作,后者承诺未来十年在AWS上投入超1000亿美元,采购Trainium芯片及数千万颗Graviton CPU核心,锁定最高5吉瓦算力 [2] - Meta公司也在开发AI芯片,上周宣布正与博通合作开发多款芯片 [3] - 微软于今年1月发布了其第二代AI芯片 [4] 英伟达的市场地位与技术进展 - 尽管科技巨头纷纷布局,但目前尚无法撼动英伟达在AI芯片领域的地位 [5] - 英伟达于今年3月公布了即将推出的新一代芯片,该芯片可让模型更快响应用户提问,技术源于其以200亿美元收购芯片初创公司Groq [5] - 英伟达即将推出的Groq 3 LPU芯片将大量采用静态随机存取存储器技术,这一技术也被另一AI芯片制造商Cerebras使用 [5]
Conventum Alluvium Global Fund Q1 2026 Quarterly Report
Seeking Alpha· 2026-04-23 08:40
matejmo/iStock via Getty Images Introduction Last quarter we asked the rhetorical question: What will Trump do next? As if the Ukrainian conflict, tariff uncertainty, and China's provocative actions did not create enough anxiety, we now have a belligerent US president joining Israeli forces in a hostile attack on Iran with devastating economic consequences. The victor will not be asked, later on, whether he told the truth or not. In starting and making a war, not the Right is what matters, but Victory. ¹ - ...