Grock chips
搜索文档
Austin Lyons on NVDA, ARM, Google TurboQuant & New AI Innovations
Youtube· 2026-03-28 03:00
Nvidia的竞争格局演变 - 历史上Nvidia在GPU领域是首个、最佳且唯一的供应商,随后AMD进入该市场参与竞争 [2] - 在Nvidia的GTC大会上,其叙事从“为一切购买GPU”转变为展示如何将大语言模型推理工作负载分解为子任务 [2] - 为追求极低延迟和高交互性(例如快速云编码),可以引入Grock或Cerebras等公司的芯片来解锁新的性能水平,这改变了竞争动态 [3][4] - Nvidia正将其护城河提升至系统层面,强调其数据中心整体解决方案和品牌优化能力,即使集成其他厂商部件,仍能提供最佳推理性能 [4][5] ARM的业务模式转型 - ARM正从纯粹的知识产权授权模式,转向为AI领域销售完整的服务器机架 [6] - 在Nvidia展示的数据中心中,使用了基于ARM授权、由Nvidia制造的CPU,Jensen Huang指出CPU正成为GPU的瓶颈 [7] - ARM看到了机遇,不仅向Nvidia等公司授权CPU知识产权,更开始自行制造芯片,这是巨大的市场机会 [8] - 过去35年ARM仅进行IP授权,近年推出了“计算子系统”,提供CPU及周边系统IP,授权费率在5%至10%之间 [8] - 转向销售芯片后,其毛利率可能从IP授权业务的约97%降至约50%,但将带来大量的增量利润 [8] - 投资者对ARM进入数据中心销售芯片市场感到兴奋,因为这有望驱动其营收和利润大幅增长 [9] 内存市场与Google TurboQuant算法的影响 - Google发布的TurboQuant算法引发了市场对高带宽内存需求减少的担忧,严重冲击了美光等内存公司股价 [10] - 过去六个月,内存和存储公司股价飙升,市场一直存在对周期性和行业见顶的疑问 [11] - 该算法表明,被称为KV缓存的工作内存可以被压缩并更高效地存储,市场解读为可能不再需要那么多HBM,导致部分投资者获利了结 [12] - 另一种解读认为,更高效的内存存储意味着能够处理更多任务,就像ChatGPT随着上下文增长而变得更有价值一样,该算法将允许附加更多数据 [13] - 这并不意味着Nvidia或AMD会减少内存采购,而是芯片将继续设计搭载尽可能多的内存,AI模型实验室将能用现有硬件做更多事 [14] - 这体现了杰文斯悖论,即效率提升可能导致总消耗增加 [15] AI行业现状与市场预期 - 尽管AI领域在学术和理论上进展显著(如智能体AI、Cloged代码降低了软件编写门槛),但纳斯达克指数自去年10月以来未创新高,已从高点回落超过11% [15] - 目前处于一个动荡期,AI虽然强大有用且资本支出高企,但其带来的生产力提升尚未完全转化为企业的新营收线或成本节约 [16][17] - 市场正在等待AI的采用落地,并期待看到其效益能惠及约翰迪尔、卡特彼勒或保险公司等更广泛的企业,而不仅仅是超大规模云厂商 [18] - 当前存在一定的脱节,市场对诸如TurboQuant等新闻的反应可能过度,行业仍需在现实中验证更多概念,才能获得市场更多的青睐 [18]