Workflow
AI推理
icon
搜索文档
推理效率革新与Agent共振,打开万亿市场空间
广发证券· 2026-03-18 15:34
行业投资评级 * 报告对互联网传媒行业给予“买入”评级 [2] 报告核心观点 * 英伟达2026年GTC大会标志着AI产业叙事正从“训练性能突破”转向“推理效率优化”,推理成为AI算力增长的核心驱动力 [5] * 英伟达通过构建“AI工厂”体系,以软硬件垂直整合重构算力基础设施,显著提升推理效率并降低成本 [5] * AI Agent与物理AI(机器人、自动驾驶)成为新的应用增长方向,将催生新的商业模式与技术范式 [5] 根据相关目录分别进行总结 一、GTC的叙事变化:AI推理成为主战场 * **推理市场空间巨大**:英伟达CEO黄仁勋预计,2027年AI推理芯片潜在市场规模可达**1万亿美元** [5][13] * **推理需求结构性增长**:驱动因素包括:1) 高质量训练数据稀缺,模型训练更多依赖合成数据与后训练推理;2) AI Agent应用相比传统聊天机器人,token消耗量提升**1-2个数量级** [5][13] * **推理占比持续提升**:德勤预计,全球推理负载占AI算力比例将从2023年的约**1/3**提升至2026年的约**2/3**,长期有望超过**80%** [5][13] * **推理成本大幅下降**:主流模型推理成本较2023年下降超过一个数量级,2026年海外主流模型API调用价格已降至每百万token约**0.05–10美元**区间 [5][13][15][17] * **英伟达推出新一代推理平台**: * **Vera Rubin平台**:集成7款芯片,推理性能较上一代提升约**35倍**,token生成速率实现**350倍**增长 [5][20] * **Groq LPU架构**:专为低延迟推理设计,采用片上SRAM替代HBM,基于此推出的LPX机架可带来最高约**10倍**的潜在商业化收益空间提升 [5][23] 二、AI应用:Agent与物理AI * **AI Agent成为企业刚需**:商业模式将从SaaS转变为**Agentic AI as a Service** [5][30] * **英伟达完善OpenClaw生态**:推出**NemoClaw**,通过**OpenShell**提供安全沙箱环境,解决Agent执行权限与安全控制的矛盾 [5][30][37] * **开源模型表现领先**:英伟达发布的**Nemotron-3 Super**在OpenClaw基准测试中位列全球第四、开源模型第一 [5][31] * **物理AI技术栈形成**:英伟达发布**Cosmos**世界模型、**Isaac**仿真框架和**GR00T**机器人基础模型,形成“世界模型+仿真训练+机器人模型”的完整技术栈,加速机器人与自动驾驶落地 [5][41] * **自动驾驶生态扩张**:英伟达Robotaxi平台新增比亚迪、现代等合作伙伴,预计每年将有约**1800万辆**新车具备相关能力;并与Uber合作推进自动驾驶车队部署 [46] 三、投资建议 * **投资逻辑转变**:AI产业叙事从训练驱动转向推理驱动,应重视全栈式AI布局、软硬协同带来的推理性价比和稳定性优势 [5][47] * **应用方向明确**:**Agent**与**物理AI**是两大核心AI应用方向,Agent的普及对算力、模型与安全基础设施提出新需求 [5][47] * **关注垂直整合厂商**:围绕自研模型+云+生态的垂直整合,短期关注**谷歌**,中长期关注**微软、阿里巴巴、腾讯控股** [5][48] * **细分赛道机会**: * 多模态应用关注**快手、美图** [5][48] * IP+AI视频关注**阅文集团、中文在线、上海电影、欢瑞世纪、华策影视、掌阅科技**等 [5][48] * AI营销关注**汇量科技、易点天下、蓝色光标**等 [5][48] * AI陪伴社交关注**恺英网络**,AI游戏关注**心动公司** [5][48] * AI内容确权关注**阜博集团** [5][48] * AI医疗关注**京东健康、阿里健康** [48]
从训练到推理英伟达(NVDA.US)壁垒再加固!分析师:难以想象对手如何竞争
智通财经网· 2026-03-18 14:59
核心观点 - 华尔街分析师普遍认为,英伟达在GTC大会上展示的创新产品和战略合作将巩固并扩大其在AI推理市场的领导地位,其技术路线图、全栈平台战略和财务前景均获得积极评价 [1][2][4] 分析师评级与目标价 - Bernstein维持“跑赢大盘”评级和300美元目标价 [2] - 花旗维持“买入”评级和300美元目标价 [4] - 摩根士丹利维持“增持”评级和260美元目标价,并重申其为板块首选股 [5] - 美国银行维持“买入”评级和300美元目标价,并继续将其列为AI领域首选标的 [6] 财务前景与市场预期 - 英伟达预计到2027年,仅Blackwell和Rubin及其相关网络产品就将创造1万亿美元的营收机会 [2] - 该1万亿美元预期不包括Groq LPU、CPX、CPU机架等其他产品线,因此数据中心业务实际表现可能远超此目标 [2][4] - 2027财年预期中隐含约5000亿美元收入,已高于市场普遍预期的4380亿美元 [3] - 花旗预计2025至2027年数据中心销售额将达1万亿美元,高于市场预期的9500亿美元,且因未包含LPU、独立CPU和Hopper销售额,实际可能再增加数百亿美元 [4] 技术优势与产品路线图 - 公司的技术路线图极为扎实,与竞争对手的差距持续扩大 [2] - 每一代产品都将Token计算成本降低一个数量级,使公司在推理计算时代占据先机 [3] - 2026-2028年的产品路线图展示了在GPU、CPU、新型共封装光学芯片以及全新LPU芯片等领域的协同设计与极致追求 [4] - 基于Groq IP的LPU芯片与Rubin配合,据称可提供35倍的吞吐量提升,增强在快速推理工作负载领域的竞争力 [4] - 公司凭借在硬件和软件领域的领先优势,推动下一代代理式AI工作负载发展,基于其平台的推理在单Token成本方面具有明显优势 [5] 市场地位与竞争格局 - 新品发布将助力英伟达在AI推理领域复制其在训练市场的统治地位 [2] - 公司全方位平台战略的竞争优势愈发明显,持续深耕并拓展GPU、CPU、DPU、LPU、网络和存储等软硬件生态系统 [3] - 分析师认为越来越难以想象其他公司能与英伟达竞争 [3][4] - 公司的全栈解耦产品线展现出1万亿美元的市场前景,进一步扩大了在AI推理领域的领先优势 [6]
英伟达-GTC-2026-黄仁勋主题演讲
2026-03-18 10:31
NVIDIA GTC 2026 电话会议纪要分析 一、 公司概况与战略定位 * **公司定位**:公司是全球首家垂直整合且横向开放的公司[10] 其战略核心是构建一个由庞大安装基数驱动的加速计算平台[2] * **核心战略**:构建世界一流的基础模型,并在此基础上实现垂直整合与水平开放[37] 垂直整合旨在通过特定领域的加速实现应用加速并大幅降低成本[10] 横向开放体现在将技术集成到任何客户需要的平台上[10] * **飞轮效应**:公司通过20年投入建立的数亿台运行CUDA的GPU安装基数吸引了开发者[2] 开发者创造突破性算法催生新市场[2] 新市场吸引更多公司加入并再次扩大安装基数[2] 目前飞轮正加速转动,公司库的下载量正以创纪录的速度增长[2] 二、 市场前景与需求规模 * **需求规模**:截至2026年3月,所看到的需求覆盖至2027年,规模至少达到1万亿美元[1][14] 作为对比,2025年同期看到的需求规模约为5,000亿美元,覆盖至2026年[14] * **需求驱动**:需求激增的核心驱动力是AI推理业务的拐点已经到来[14] 2025年是公司的推理之年[14] 过去两年计算需求增长了约100万倍[13] * **行业变革**:AI原生企业的风险投资规模已飙升至1,500亿美元,创下历史纪录[12] 数据中心正在从传统的存储设施演变为生产tokens的“AI工厂”[17] 未来所有企业都将依赖AI工厂[44] 三、 核心技术:CUDA与平台生态 * **CUDA起源**:CUDA的征程始于25年前发明的可编程着色器[3] 20年前CUDA正式诞生[3] 公司当时将CUDA搭载在GeForce产品上,培养了庞大的用户群体和开发者[3] * **CUDA现状**:CUDA架构的核心是单指令多线程技术,并新增了分片功能、张量核心及数学结构[2] 公司提供了数千种工具、编译器、框架和库[2] 开源领域有数十万个基于CUDA的公开项目[2] * **CUDA X库**:CUDA X库是公司业务的核心,是激活计算平台的关键[12] 公司本质上是一家算法公司[12] 仅在本次展会就将发布70个算法库和约40个模型[12] 其中CUDA DNN库彻底革新了人工智能领域[12] 四、 产品迭代与性能突破 * **架构演进**:公司规划每年推出全新架构,并保持向后兼容[30] 从Hopper到Grace Blackwell,再到Vera Rubin,以及未来的Rubin Ultra、Fineman[1][30] * **性能飞跃**: * **推理吞吐量**:Blackwell较Hopper推理吞吐量提升35倍[1] Vera Rubin吞吐量再增10倍[1] * **能效与成本**:Grace Blackwell Envy 72在2025年实现了每瓦性能提升35倍的成果[16] 公司实现了全球领先的低每token成本[16] * **令牌生成速率**:在短短两年内,通过新架构在一个千兆瓦(1 GW)的工厂中,令牌生成速率将从2,200万提升至7亿,增幅达到350倍[29] * **具体产品**: * **Vera Rubin平台**:算力达3.6 Exaflops[1] 通过NVLink 72实现260TB/s带宽[1] 单机架可连接144个GPU[1] 实现100%液冷[1] 安装时间从两天缩短至两小时[20] * **Blackwell**:通过NVLink连接72块GPU,全互联带宽达到130TB/秒[18] 五、 关键收购与技术整合:Groq * **收购与整合**:公司收购Groq团队并集成其技术[1] 通过名为Dino的软件拆分推理流程[1][25] 在极高速度区间实现35倍性能提升[1] 解决了高吞吐量与低延迟之间的冲突[23] * **技术原理**:Grok是一种采用静态编译和编译器调度的确定性数据流处理器[24] 配备了海量的SRAM[24] 与Vera Rubin整合后,在主流工作负载由Vera Rubin处理,解码生成、低延迟工作负载则由Grok处理[25] * **生产进展**:Groq LP3芯片由三星负责生产[26] Grok LPX预计将于2026年下半年开始发货[26] 六、 软件与操作系统布局 * **智能体操作系统**:推出OpenClaw开源智能体操作系统[1] 它被视为“通用人工智能计算机的操作系统”,其意义可与Windows推动个人计算机普及相提并论[34] * **企业安全方案**:推出NeMo Claw企业级安全、私有部署解决方案[1][34] 该方案具备策略机制、网络防护措施和隐私路由器[34] * **对SaaS公司影响**:OpenClaw意味着SaaS公司将从传统的软件工具提供商转型为生成式AI服务公司[1][34] 七、 数据处理与加速 * **数据布局**:公司正全力加速结构化与非结构化数据的处理[6] 全球数据中约90%为非结构化数据[6] * **核心库**:创建了两个基础库:为数据帧和结构化数据开发的CUDF,以及为向量存储和语义数据开发的CUVS[6] * **合作案例**: * 与IBM合作,加速其Watsonx.data SQL引擎,帮助雀巢将工作负载运行速度提升了5倍,成本降低了83%[6] * 与谷歌云合作加速BigQuery,帮助Snapchat将计算成本降低了近80%[7] 八、 云计算与合作伙伴生态 * **合作模式**:与云服务提供商(CSP)的合作模式是互惠共赢的[8] 公司通过将加速库集成到云平台中来加速其工作负载,并为云服务商带来客户[8] * **主要合作伙伴**: * **AWS**:2026年将把OpenAI引入AWS[8] 公司加速了AWS的EMR、SageMaker和Bedrock[8] * **微软Azure**:首个为公司打造的A100超级计算机项目部署在Azure[9] 深度参与Azure的AI Foundry项目[9] * **谷歌云**:长期合作,加速其Vertex AI平台和BigQuery[8] * **甲骨文**:公司不仅是其供应商,更是其首个AI客户[9] * **垂直行业合作**:与Palantir和戴尔三方携手,为Palantir打造了全新的AI平台,能够在任何国家、任何物理隔离区域实现完全本地化部署[9] 九、 垂直行业应用与进展 * **金融服务**:该行业是本次GTC大会参会者中占比最大的群体[11] 算法交易正从传统量化交易转向由超级计算机自主分析海量数据的阶段[11] * **医疗健康**:医疗健康领域正经历类似ChatGPT的技术突破,公司在此开展了多项工作[11] * **汽车/自动驾驶**:公司认为自动驾驶的“ChatGPT时刻”已经到来[42] 自动驾驶出租车平台新增比亚迪、现代、日产和吉利四家合作伙伴,合计年产汽车1,800万辆[42] 宣布与优步达成重大合作[43] * **机器人技术**:公司已深耕机器人技术十年[11] 提供了三类核心计算机硬件和完整的软件栈[40] 推出开源的Isaac Lab用于机器人训练[41] 合作伙伴包括ABB、优傲机器人、库卡、卡特彼勒等[45] * **通信**:公司认为遍布各地的基站将从上一代计算基础设施重塑为AI基础设施平台[11] 公司的Ariel平台已与T-Mobile等企业建立了重要合作关系[11] * **零售与制造业**:在规模达35万亿美元的零售和快消行业,公司利用技术优化供应链[11] 在规模达50万亿美元的制造业领域有深入布局[11] * **太空计算**:公司正在将业务拓展至太空领域,目标是在太空建设数据中心[33] 正在开发名为Vera Rubin Space 1的新型计算机[33] 十、 AI模型与开放生态 * **开放模型计划**:公司是开源AI领域最大的贡献者之一[36] 构建并发布了六大系列开源前沿模型[36] 涵盖语言、视觉、物理AI、机器人、自动驾驶、数字生物学和AI物理等领域[36] * **核心模型**:Neonotron 3 Ultra被定位为目前世界上顶级的多模态基础模型之一[37] 推出了Earth Two气候预测模型[38] * **生态构建**:公司通过打造世界级的开放基因框架和推出名为NimbleClaw的参考设计来构建生态系统[39] 宣布成立联盟推动NemoTran 4模型发展,成员包括Blackforce Labs、Cursor、Perplexity等[39] 十一、 业务结构与客户分布 * **业务结构**:目前,公司60%的业务来自超大规模数据中心客户,包括全球前五大超大规模数据中心企业[15] 其余40%的业务覆盖了区域云、主权云、企业、工业、机器人、边缘计算等领域[16] * **客户选择**:Anthropic和MSL在2025年均选择了公司,这些客户占据了全球开源AI模型计算量的三分之一[14] 十二、 未来路线图 * **产品规划**:路线图规划每年推出全新架构[30] Rubin Ultra芯片已流片[1] 后续Fineman平台将联合Groq开发LP40芯片并配备Rosa CPU[1][30] * **网络与互联**:将推出用于Rosalind的Bluefield 5,连接新一代CPU与新一代SuperNIC CX 10[30] 互联方案将同时推进铜缆和共封装光学两种方案[30]
金元证券每日晨报-20260318
金元证券· 2026-03-18 10:00
股市回顾 - A股三大指数集体下跌 上证指数跌0.85%报4049.91点 深证成指跌1.87%报14039.73点 创业板指跌2.29%报3280.06点 市场成交额为2.22万亿元 [5][12] - 亚太市场涨跌互现 香港恒生指数涨0.13% 恒生科技指数跌0.08% 韩国综合指数涨1.63% 日经225指数跌0.09% [5][12] - 欧美主要股指多数上涨 英国富时100指数涨0.83% 德国DAX30指数涨0.71% 法国CAC40指数涨0.49% 道指涨0.10% 纳指涨0.47% 标普500涨0.25% [5][12] - 中概股多数下跌 纳斯达克中国金龙指数跌0.73% 万得中概科技龙头指数跌1.58% 个股中腾讯音乐跌超24% 小鹏汽车跌超4% 哔哩哔哩涨超4% [5][12] 国际要闻 - 美国总统特朗普因邀请盟友参与霍尔木兹海峡护航遇冷 再次表达对北约不满并称考虑退出北约 [9] - 美国政府计划进一步放松对委内瑞拉石油行业制裁 以在伊朗战争推高油价背景下提升原油产量 相关措施最早可能于本周公布 [10] - 阿联酋Shah天然气田和伊拉克Majnoon油田等油气设施遭遇无人机袭击 沙特阿拉伯也遭遇大规模无人机蜂群 [10] - 伊朗最高国家安全委员会秘书拉里贾尼及巴斯基民兵指挥官身亡 伊朗新任最高领袖驳回斡旋提案 以色列国防军发言人称将“追杀”伊朗新任最高领袖 [11][13] - 英伟达黄仁勋表示AI推理市场拐点已到来 公司将与初创公司“格罗克”合作推出AI服务器系统 以加大在低成本、低延迟推理计算领域的布局 [13] 国内要闻 - 国家发改委正会同相关部门组织开展国家层面标志性重大应用场景项目申报 将在全国确定约100个具有引领带动作用的标志性场景项目 涉及清洁能源走廊、全空间无人体系、养老服务等场景 [14] - 国务院国资委强调聚焦“两重”“两新” 靠前谋划实施一批重大项目和标志性工程 深入实施中央企业“AI+”专项行动 加快推进数智化转型 [14] - 财政部表示2026年继续实施更加积极的财政政策 重点支持建设强大国内市场、培育壮大新动能、加快高水平科技自立自强等七方面工作 [14] - 北斗卫星导航系统将于近期实施在轨升级 对部分卫星工作状态进行优化调整 目前系统在轨运行卫星数量已达50颗 空间信号精度优于2米 [14] - 阿里巴巴发布全球首个企业级AI原生工作平台“悟空” 后续阿里生态业务ToB能力将以skills形式逐步嵌入该平台 平台同步发布OPT十大行业解决方案 首批覆盖电商、跨境电商等十大场景 [15][16] 重要公告 - 鹏鼎控股拟投资110亿元建设高端PCB项目生产基地 [5][17] - 酷特智能拟约5亿元收购韩国apM集团控股权 [5][17] - 海力风电签订10.85亿元海上风电项目合同 [5][17]
从GPU到LPU:英伟达大举进攻推理芯片,黄仁勋再落关键一子
华夏时报· 2026-03-18 08:59
行业趋势:AI算力需求从训练转向推理 - AI产业风向转变,从过去几年专注于“训练模型”转向“推理”成为主流,智能体(如Manus、OpenClaw)涌向市场,模型厂商和云服务商开始靠卖token赚钱 [1] - 业界意识到,随着AI能力从基础大模型训练向构建工作流的智能体演进,AI算力需求重心已从训练转向推理,智能体核心场景更侧重于推理 [5][6] - 竞争轴心发生偏移,模型参数比拼进入边际效应递减瓶颈期,大模型训练在狂奔两年后慢下来,2025年开始智能体与上下文工程站上核心位置 [5] 公司战略:英伟达推出LPU并升级生态 - 英伟达在GTC 2026上正式推出新武器Groq 3 LPU(语言处理单元),大举进攻AI推理芯片市场 [1] - 推出LPU是应对AI算力需求从“训练”转向“推理”的战略性布局,旨在补齐短板,用更精细化的产品布局回应市场变化和竞争对手挑战 [3] - 公司进行整个生态层面的升级,不仅推出LPU,还联合OpenClaw创始人等团队推出NeMoClaw参考架构,并推出Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈 [6] 产品与技术:Vera Rubin平台与性能提升 - 英伟达正式推出Vera Rubin平台,共搭载7款芯片,包括Rubin GPU、Vera CPU及新集成的Groq 3 LPU等 [2] - Rubin GPU结合Groq LPU,计划将AI模型token吞吐量从当下每秒100个推向每秒1500个甚至更多,以完美支撑AI智能体交互场景 [2] - 推出专用于容纳新型Groq加速器的完整机架Groq LPX,据称将提升“每个令牌上AI模型每一层”的解码性能,并使平台能够服务于需要推理数万亿参数模型的多智能体系统 [2] 市场与竞争:市场格局变化与对手 - 根据高盛全球投资研究部模型预测,在AI服务器的AI芯片中,非GPGPU芯片(如ASIC)的出货占比将从2024年的36%增长至2027年的45%,而GPGPU芯片占比将从2024年的64%下降至2027年的55% [3] - GPU在基座大模型训练、通用性要求更高的场景(如公有云)和并行计算场景更有竞争力,而ASIC(包括TPU、DPU、NPU、LPU等)在模型部署和推理场景下,因对能效比、响应延迟要求更高而相对更有优势 [3] - 在ASIC市场,英伟达的对手包括国外的Cerebras,以及中国的寒武纪、华为、燧原科技等,英伟达进军推理芯片领域对国内厂商而言既是挑战也是催化剂,可能加速行业洗牌和技术升级 [7] 财务与业务:收入预测与市场进展 - 英伟达CEO黄仁勋在GTC 2026上表示,到2027年底,Blackwell和Rubin两条产品线的年收入将达1万亿美元,比半年前的预测翻了一倍 [1] - 英伟达为应对推理需求所做的计划已带来回报,OpenAI上月表示已与英伟达达成协议,将采购具有“专用推理能力”的芯片 [4] - 英伟达在2025年12月以约200亿美元的价格收购了Groq的核心技术资产,Groq 3 LPU是收购后首个公开成果 [3] 专家观点与未来展望 - 专家认为,英伟达进军推理芯片市场,并不意味着其GPU业务会因此受损,反而会在与LPU的协同中迎来更广阔的市场空间 [7] - 专家指出,短期内GPU凭借强大的场景适应性和生态壁垒主导市场(尤其在AI训练场景),长远看GPU与专用芯片将走向融合与市场分层,硬件上GPU会集成更强的专用核心,专用芯片也会增加可编程性 [7] - 预计市场将形成GPU主导创新与通用平台、专用芯片深耕规模化推理的分层格局 [7]
H200中国市场放量倒计时! CUDA托起强需求 英伟达(NVDA.US)AI帝国迎接“增量利好”
智通财经网· 2026-03-18 08:14
公司动态:英伟达H200芯片获准对华销售与量产重启 - 公司首席执行官黄仁勋确认,基于Hopper架构的H200 AI加速器已获得美国政府许可,可向“中国市场的许多大型客户”销售,并正处于“重启我们的大规模制造”进程中 [1][2] - 公司已获得美国总统的口头许可,但迄今为止尚未从这类许可中确认任何来自中国市场的H200营收 [5] - 有媒体此前报道,运往中国市场的H200 AI芯片需接受美国额外例行检查,并被征收25%的关税,且美国官员考虑将每家中国客户的购买数量限制在75,000颗,总出货量最高可达100万颗处理器 [6] 市场与财务影响:中国市场作为关键增量 - 中国市场过去曾占公司总营收的四分之一,如今仅占很小一部分,但仍是全球最大规模的单一半导体市场,对公司的长期基本面繁荣至关重要 [4][7] - 公司尚未将任何中国市场的数据中心类型营收前景纳入其财务预测,2月给出的本季强劲业绩指引里没有计入任何中国数据中心营收前景,近期展望仍是零 [4][7] - 如果H200能以较大规模流向中国市场,对公司基本面扩张前景而言是实质性的增量利好,将构成对公司当前估值模型和市场增长预期的增量级别上修空间 [1][7] 产品与技术定位:H200的性能与市场需求 - H200属于Hopper架构,单卡规格为141GB HBM3e、4.8TB/s带宽、约4 PFLOPS FP8 [8] - H200的综合性能远不如公司目前用于训练和运行AI大模型的Blackwell/Blackwell Ultra架构AI芯片,但相比此前专为中国市场推出的H20有近6倍性能提升 [4][8] - H200凭借强劲的AI推理效能、席卷全球AI开发者生态的CUDA体系以及便捷部署能力,在受制裁约束的中国市场颇受欢迎,是“受限条件下的高端可用算力” [4][9] 行业前景与公司战略:AI算力基础设施的宏大蓝图 - 公司在GTC大会上公布,在Blackwell架构及即将量产的Vera Rubin架构推动下,其在人工智能芯片领域的未来营收规模到2027年可能至少达到1万亿美元,远高于此前提出的到2026年实现5000亿美元的目标 [10] - 黄仁勋表示“人工智能推理时代已经到来”,且推理需求还在不断上升,H200的141GB HBM3e对长上下文、大规模批量部署AI推理集群依旧非常有吸引力 [9] - 华尔街机构认为,以AI算力硬件为核心的全球人工智能基础设施投资浪潮远未完结,持续至2030年的这一轮投资浪潮规模有望高达3万亿至4万亿美元 [11] 政策与竞争环境:出口限制与关税 - 公司近年来一直努力恢复AI芯片在中国市场的销售,但由于美国政府的芯片出口限制,这一庞大市场已对这类产品实质性长期关闭 [2] - 美国政府允许H200在特定条件下出口到中国,并以25%费用/关税作为“交换条件”,而Blackwell系列等更高端AI芯片产品目前仍不被允许出口 [3] - 这项针对公司与AMD的半导体关税政策排除了用于美国本土数据中心、消费者设备及产业用途的芯片 [3]
300972,拟10派8.5元……盘前重要消息还有这些
证券时报· 2026-03-18 08:10
重要消息 - 普昂医疗于3月18日申购 发行价格为18.38元 发行市盈率为14.99倍 单一账户申购上限为47.62万股 [2] - 商务部部长王文涛考察企业时指出 中国外贸展现出强大韧性 企业应推动市场多元化 加强研发创新和自主品牌建设 以提升国际竞争力 [2] - 国家发改委推出新一批13个标志性重大外资项目 计划投资额134亿美元 项目集中在电子制造、化工、汽车、机械等制造业 截至目前 标志性重大外资项目已累计完成投资1080亿美元 [2] - 英伟达首席执行官黄仁勋表示 AI推理市场拐点已到来 推理算力需求呈指数级爆发 公司将与初创公司“格罗克”合作推出AI服务器系统 布局低成本、低延迟推理计算 [3] 公司公告 - 三房巷表示 产品价格快速上涨导致下游客户采购意愿有所减弱 [5] - 国晟科技表示 公司股价已严重偏离基本面 未来存在下跌风险 [5] - 福耀玻璃2025年净利润同比增长24.2% 拟每股派发现金红利1.2元 [5] - 中复神鹰表示 碳纤维新品预计不会对公司2026年经营业绩产生影响 [6] - 法尔胜表示 如未来公司股票价格进一步上涨 可能申请停牌核查 [7] - ST金鸿表示 若股票价格进一步异常上涨 可能向深交所申请停牌核查 [8] - 万辰集团2025年净利润同比增长358.09% 拟每10股派发现金红利8.5元 [9] - 银龙股份2025年净利润为3.66亿元 同比增长54.59% [10] - 世纪鼎利2025年净利润为1549.91万元 同比实现扭亏为盈 [11] - 万通智控控股股东拟减持公司不超过2%的股份 [12] - 江苏有线股东视京呈通信拟减持不超过874.44万股股份 占总股本的0.17% [13] - 好太太股东侯鹏德拟减持公司不超过3%的股份 [14] - 金银河股东海汇财富拟减持不超过4.31%的公司股份 [15] - 光明肉业控股股东拟减持公司不超过1.99%的股份 [16] - 鸿合科技拟使用0.5亿元至1亿元资金回购公司股份 [17] - 开立医疗拟使用1亿元至2亿元资金回购公司股份 [18] - 鹏鼎控股全资子公司拟投资110亿元建设高端PCB项目生产基地 [19]
消息称英伟达准备为中国市场推Groq AI芯片 性能不降级
凤凰网· 2026-03-18 08:04
公司战略与产品动态 - 英伟达正准备推出一款能够在中国市场销售的Groq AI芯片版本 [1] - 该芯片并非性能降级版,也不是专门为中国市场设计,能够适配其他系统,预计将于5月上市 [1] - 英伟达计划将Groq的芯片用于AI“推理”环节,即让AI系统为用户回答问题、编写代码或执行任务 [1] - 在本周的GTC开发者大会上,公司展示了基于Groq芯片的全新产品线,并计划将其即将推出的Vera Rubin芯片与Groq芯片结合使用 [1] 行业竞争格局 - 尽管英伟达在AI训练市场占据主导地位,但在推理市场却面临着更为激烈的竞争 [1] - 多家中国主要企业已开始生产自己的推理芯片,其中包括百度这样的AI头部公司 [1] 公司发展背景 - 英伟达在去年年底以170亿美元收购了AI芯片创业公司Groq [1]
AI周专题:Oracle业绩验证AI算力需求强劲
广发证券· 2026-03-17 22:23
行业投资评级 - 互联网传媒行业评级为“买入” [2] 核心观点 - Oracle 2026财年第三季度业绩超预期,验证了AI算力需求的强劲以及基础设施投资的逻辑 [1][5] - 2026年第二季度预计将进入新一轮模型大版本迭代期,国产文本与多模态模型加速追赶,AI智能体(Agent)商业化临近拐点,高客单价与渗透率提升潜力可观 [5] - 以算力需求与模型为核心的投资趋势仍将持续,AI有望迎来新一轮价值重估 [5] 根据相关目录分别总结 一、Oracle业绩超预期,AI算力需求与基础设施投资逻辑再获验证 - **云业务高速增长**:2026财年Q3,Oracle云业务收入达89亿美元,同比增长44%。其中,云基础设施服务(IaaS)收入49亿美元,同比增长84%,增速较上季度的68%进一步加快 [5][13][14] - **订单规模激增验证需求**:本季度剩余履约义务(RPO)达到5530亿美元,同比增长325%,主要来自与OpenAI、Meta等公司在AI数据中心与算力基础设施方面的合作订单 [5][13][17] - **高资本开支与商业模式调整**:本季度资本开支达482.5亿美元,环比增长超100亿美元。AI业务毛利率约为32%,显著低于云计算及软件业务70%的毛利水平。为缓解现金流压力,Oracle调整商业模式,采用“客户自购GPU+预付款”的方式 [5][13][21][22] - **AI推理需求崛起与新云厂商**:AI产业关注重点正从单一GPU芯片转向完整的基础设施体系。AI推理需求持续提升,催生了CoreWeave、Nebius等专门面向AI工作负载优化的新型云服务厂商(Neocloud) [24][25] 二、国内外AI应用股价与估值复盘 - **美股市场分化**:上周(截至2026年3月13日),美股新云与网络安全板块表现突出,Nebius、CoreWeave、Cloudflare股价相对纳斯达克指数分别上涨27.7%、12.4%、10.1%。B端SaaS板块普遍走低,Workday、HubSpot等股价相对指数下跌 [5][27][29] - **港股市场分化**:2026年以来,智谱、MiniMax股价分别跑赢恒生指数310%、199%。上周,MiniMax、金山云股价相较恒生指数分别上涨26.6%、10.1% [31][32] - **A股市场表现低迷**:上周A股传媒AI应用公司股价整体表现偏弱,普遍跑输深证成指 [5][34][35] 三、国内外AI数据跟踪与行业动态 - **大模型调用量**:2026年3月9日-15日,通过OpenRouter调用的大模型token数量为16.9T。调用量排名中,MiniMax M2.5位列第一,DeepSeek V3.2进入前五 [5][37][40] - **国内大模型数据**:2026年3月2日-8日,DeepSeek、豆包、Kimi网页端访问量排名前三,分别为7128.70万次、3247.41万次、1204.02万次。iPhone端下载量前三为豆包(209.47万次)、千问(164.49万次)、腾讯元宝(69.77万次),其中Kimi下载量环比提升29.37% [43][46][47] - **海外大模型数据**:同期,ChatGPT、Gemini、Grok网页端访问量分别为130470.68万次、57279.57万次、7573.30万次。Claude的iPhone端下载量环比大幅提升196.34% [61][68] - **国内AI应用买量**:3月2日-8日,国内主要AI产品广告投放素材量为117.65万次,投放金额前三为腾讯元宝(11.66亿元)、千问(2.97亿元)、豆包(2.66亿元) [58] - **行业动态**:国内厂商密集推出OpenClaw兼容产品,如腾讯WorkBuddy、字节ArkClaw、智谱AutoClaw等。海外方面,英伟达发布开源模型Nemotron 3 Super,谷歌发布多模态嵌入模型Gemini Embedding 2 [5][78][79][83] 四、投资建议 - **投资主线**:围绕自研模型、云计算及生态的垂直整合进行布局 [5][85] - **具体关注方向**: - **短期**:关注谷歌 [5][85] - **中长期**:关注微软、阿里巴巴、腾讯控股 [5][85] - **多模态应用**:关注快手、美图 [5][85] - **IP+AI视频**:关注阅文集团、中文在线、上海电影、欢瑞世纪、华策影视、掌阅科技等 [5][85] - **AI营销**:关注汇量科技、易点天下、蓝色光标、钛动科技(拟上市)等 [5][85] - **AI陪伴社交**:关注恺英网络 [5][85] - **AI游戏**:关注心动公司 [5][85] - **AI内容确权**:关注阜博集团 [5][85] - **AI医疗**:关注京东健康、阿里健康 [5][85]
英伟达出手,SRAM重回C位
36氪· 2026-03-17 19:08
文章核心观点 - AI计算需求正从训练转向推理,用户体验标准从模型大小转向响应速度,这驱动了存储架构的范式转移,曾经因成本高而被边缘化的片上SRAM技术因其极低的访问延迟和确定性的高带宽,正在AI推理领域强势回归,并可能重塑AI芯片与存储市场的格局 [1][4][15] AI推理需求的结构性变化 - 德勤预测到2026年,“推理”将占据全部AI计算能力的三分之二,标志着AI工作负载的历史性转折 [4] - 用户体验的衡量标尺从“模型有多大”转向“回答有多快”,核心指标变为首次响应时间(Time-to-First-Token)和生成流畅度(尾时延) [4] - 在推理的逐字生成(decode)阶段,瓶颈已从算力转向内存带宽,传统GPU需要频繁从片外HBM搬运权重,造成巨大延迟和能耗浪费 [5] SRAM架构的技术优势与性能表现 - SRAM集成在计算核心附近,可显著降低权重与激活数据的访存延迟与抖动,从而改善推理的响应时间表现 [6] - Groq最新发布的Groq 3 LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s,是主流GPU片外HBM4带宽(约22TB/s)的约7倍 [3] - 以Llama 3.3 70B模型为例,Groq平台在不同上下文长度下能维持200-300+ token/s的稳定推理速度,显著优于传统GPU推理平台 [6] - Cerebras的晶圆级引擎3(WSE-3)芯片集成了高达44GB的片上SRAM,片上存储带宽达到21 PB/s,在OpenAI GPT-OSS 120B推理任务中实现了超过3000 tokens/s的输出速度,较主流GPU云推理快约15倍 [7] 行业巨头与初创公司的战略布局 - 英伟达在GTC 2026正式发布集成Groq LPU架构的推理芯片,其Groq 3 LPX机架方案搭载256个LPU,提供128GB片上SRAM和高达40PB/s的推理加速带宽,该芯片由三星电子代工,预计2026年下半年开始出货 [3] - OpenAI已确定成为英伟达Groq 3 LPU芯片的首批客户,并承诺投入300亿美元采购相关推理算力 [3] - 2025年12月,英伟达斥资200亿美元获得Groq知识产权的非独家授权,并吸纳了其核心工程团队,以弥补GPU在串行推理场景的架构短板 [8][9] - 2026年2月,Cerebras完成10亿美元H轮融资,估值达到230亿美元,并与OpenAI签署了一份高达100亿美元的合同,部署多达750兆瓦的定制AI芯片 [9] - OpenAI推出了首个运行在Cerebras AI加速器上的模型——GPT-5.3-Codex-Spark预览版,支持超过1000 tokens/s的代码生成响应速度 [9] 未来芯片架构与内存层级演进 - 英伟达采取务实路线,将Groq 3 LPU作为独立的推理加速器芯片,与Rubin GPU通过协同设计的架构进行组合,共同构成Vera Rubin平台 [10] - 未来的AI芯片将出现复杂的异构内存层级:底层是负责预填充(prefill)的计算晶圆,中间层是通过3D堆叠提供的大容量SRAM缓存用于高速解码(decode),旁边则通过CoWoS封装着大容量的HBM用于存储海量上下文 [10] - SRAM的回归并非替代HBM,而是推动内存层级走向更精细化分工的多元时代,两者是互补关系 [10][11] - 由于SRAM单元面积是DRAM的5到10倍,每比特成本极高,无法替代HBM作为主内存的角色,存储大模型权重仍需数百GB的HBM或DRAM [11] 对半导体产业链的影响与机遇 - 内存层级的细分可能扩大整个存储市场的总规模,未来数据中心可能需要同时配备用于训练的HBM服务器和用于实时响应的SRAM加速卡 [12] - SRAM直接集成在逻辑芯片内部,其设计与制造完全依赖于顶尖的逻辑制程工艺,这极大地凸显了晶圆代工厂的地位 [12] - 台积电被明确视为主要受益者,因为无论是英伟达采用N3P制程打造下一代LPU,还是其他厂商跟进类似架构,最终都要依赖其先进产线,这不仅意味着更高的晶圆平均销售单价,更巩固了其在AI半导体制造的核心地位 [13] - 中国台湾的存储供应链在SRAM路线中找到了新机会:华邦电的定制化内存业务中的PSRAM被视为成本与性能的折中方案;力积电通过3D AI Foundry策略展现了承接相关代工的潜力;钰创的产品线覆盖符合Groq LPU采用标准的SRAM;爱普则提供在功耗和带宽上实现倍数级提升的新一代ApSRAM [14]