公司战略与技术部署 - CoreWeave计划将NVIDIA Rubin技术集成至其AI云平台 预计在2026年下半年成为首批部署该技术的云提供商之一 此举旨在引领智能体AI、推理模型和大规模推理工作负载的发展[1] - NVIDIA Rubin平台通过消除通信和内存瓶颈 加速智能体和推理AI 与Blackwell相比 能提供更高的推理效率和更低的单token成本[1] - 公司此前已率先推出基于NVIDIA GB200 NVL72实例和NVIDIA Grace Blackwell Ultra NVL72的下一代平台 此次整合Rubin将进一步扩展客户在性能谱系上的选择 使其能够从训练扩展到推理 从实验模型扩展到关键任务部署[2] 软件与基础设施管理 - CoreWeave的自研软件栈加速了新技术集成时间 同时保持了行业领先的性能和可靠性[3] - 其平台核心是Mission Control 它结合了安全性、专家运维和深度可观测性 并与NVIDIA的RAS引擎集成 可提供从集群到机柜级别的全基础设施实时诊断 上个月公司还增强了Mission Control的可视化、可靠性和故障排除工具[3] - 为管理供电、液冷和高速网络等紧密耦合的需求 公司开发了Rack Lifecycle Controller 这个Kubernetes原生编排器将整个NVIDIA Vera Rubin NVL72机柜视为单一可编程实体 协调资源调配、验证、电源操作和硬件就绪检查[4] - 通过将Rubin的推理和智能体能力与CoreWeave的专用软件栈结合 客户可获得大规模训练、高性能推理和低延迟智能体AI部署 所有这些都通过专为生产型AI设计的统一云平台交付[5] 市场竞争格局 - 竞争对手Nebius Group (NBIS) 正快速扩张产能以满足激增的AI需求 其与NVIDIA的合作也在深化 于2023年12月在美国推出了首个由NVIDIA Blackwell Ultra驱动的AI基础设施 近期还发布了集成NVIDIA Blackwell Ultra、提供全球GPU可视化和更强安全性的AI Cloud 3.1[6] - Nebius Group目标是在2026年底实现70亿至90亿美元的年经常性收入 其与微软和Meta的大型交易预计将在第四季度末开始贡献收入 大部分相关收入将在2026年逐步增加[6] - 微软计划在未来两年内将总AI容量增加80%以上 并将数据中心总规模大致翻倍 2023年10月 微软Azure宣布部署一个基于超过4600个NVIDIA GB300 NVL72 (Blackwell Ultra) GPU的大规模集群 用于支持OpenAI工作负载和训练具有数万亿参数的模型[7] - 然而 微软预计至少在2026财年末之前仍将面临容量限制 需求超过了当前的基础设施建设速度 导致Azure错失收入机会[7] - 对于2026财年第二季度 微软收入预计在795亿至806亿美元之间 意味着增长14%至16% 这得益于AI平台的稳健采用和创纪录的云预订量[9] 公司财务与市场表现 - CoreWeave股价在过去一年中上涨了92.1% 而同期互联网软件行业的增长率为0.8%[10] - 在市净率方面 CoreWeave股票的市净率为7.66倍 高于互联网软件服务行业平均的5.89倍[12] - 过去60天内 市场对CoreWeave本年度盈利的共识预期已被向上修正[13] - 盈利预期修正趋势显示:当前季度(Q1)预期从60天前的-0.31美元下调至-0.45美元 下调幅度为45.16% 下一季度(Q2)预期从-0.28美元下调至-0.31美元 下调幅度为10.71% 本财年(F1)预期从-1.52美元上调至-1.39美元 上调幅度为8.55% 下一财年(F2)预期保持不变[14]
Is CoreWeave Building a Durable AI Moat With NVIDIA Rubin?