Workflow
LPU 芯片
icon
搜索文档
强于大市(维持评级):传媒英伟达:Groq赋能推理算力
华福证券· 2025-12-30 17:04
行业投资评级 - 强于大市(维持评级)[7] 报告核心观点 - 英伟达与AI推理芯片公司Groq达成战略合作,共同推进推理技术,Groq团队将加入英伟达,但公司保持独立运营[2][3] - 全球AI产业正从模型训练迈入规模化推理落地关键期,推理算力需求高速增长[4] - Groq的LPU(语言处理单元)结合SRAM架构在AI推理任务中具有低延迟、高速度的优势[5] - 看好国内外推理算力需求增长带动的产业链投资机会,包括国内晶圆厂、上游设备以及海外的光模块、机柜组装代工[6] 事件背景:英伟达与Groq战略合作 - 2024年12月24日,AI芯片初创公司Groq宣布与英伟达就推理技术达成非独家许可协议[3] - Groq创始人Jonathan Ross、总裁Sunny Madra及核心团队将加入英伟达,共同推进授权技术的升级与规模化应用[3] - Groq将继续作为独立公司运营,由Simon Edwards接任CEO,其GroqCloud云服务保持正常运行[3] - Groq在2024年商业化取得突破,已吸引超过200万开发者用户,并与Meta合作运行Llama大模型,与沙特阿美达成15亿美元协议建设全球最大AI推理数据中心,成为加拿大贝尔主权AI网络的独家推理提供商[3] 行业趋势:推理市场高速扩张 - 当前全球AI产业正从模型训练阶段迈入规模化推理落地的关键期,低延迟、高能效的推理算力成为核心刚需[4] - 海外推理需求旺盛,截至今年7月,谷歌月度处理Tokens达980万亿,相较5月翻倍[4] - 国内推理需求同样高速增长,截至今年12月豆包大模型日均调用量已经突破50万亿Tokens,较去年同期增长超过10倍[4] Groq技术价值:LPU+SRAM架构 - Groq LPU(语言处理单元)的设计纲领为“为速度和精确度而生”,采用编译期静态调度与确定性执行架构,在运行大型语言模型等推理任务时实现逐token的可预测、低延迟执行[5] - Groq选择以片上SRAM作为核心存储,作为主要权重存储,显著降低了访问延迟,允许计算单元以全速拉入权重,并通过将单层拆分到多个芯片实现张量并行,这种架构成为部署快速且可扩展推理的优势[5] - Groq第二代LPU采用三星4nm(SF4X)工艺节点制造,两代芯片均未绑定台积电先进制程需求[5] 投资建议 - 看好国内外推理算力需求增长和相关产业链[6] - 国内端,建议关注晶圆厂和上游设备扩产需求[6] - 海外端,建议关注推理算力需求增长下带动的光模块、机柜组装代工需求增长[6]