公司动态 - CoreWeave成为首个提供NVIDIA RTX PRO 6000 Blackwell Server Edition实例的云平台[1] - 公司联合创始人兼CTO表示,新实例将帮助客户优化和扩展AI应用,体现其AI云平台的速度和可靠性[2] - 新RTX PRO 6000 Blackwell Server Edition在LLM推理和文本到视频生成方面分别比上一代快5.6倍和3.5倍,适合高达700亿参数的模型推理[2] - 公司现提供市场上最广泛的NVIDIA Blackwell基础设施,包括NVIDIA GB200 NVL72系统和NVIDIA HGX B200平台[3] - 公司在2025年6月与NVIDIA和IBM合作,使用近2500个NVIDIA GB200 Grace Blackwell Superchips提交了有史以来最大的MLPerf® Training v5.0基准测试,在27.3分钟内完成了最复杂模型Llama 3.1 405B的训练[4] - RTX PRO 6000实例配备8个RTX PRO 6000 GPU、128个Intel Emerald Rapids vCPU、1TB系统内存、100 Gbps网络吞吐量和7.68TB本地NVMe存储[5] - 公司是唯一获得SemiAnalysis GPU Cloud ClusterMAX™评级系统最高铂金评级的大型云服务提供商[5] 技术优势 - 结合NVIDIA尖端计算技术和CoreWeave专为AI打造的云平台,客户能够以更具成本效益的方式访问高性能GPU集群[2] - 灵活的AI优化软件堆栈允许客户根据需求选择最佳的Blackwell架构[3] - AI云平台的每一层都经过微调,以最大化AI工作负载的效率,包括硬件、软件和操作的深度优化[5] 行业地位 - NVIDIA加速计算产品总监称赞CoreWeave快速将Blackwell架构推向市场的能力[4] - 公司持续展示其率先推出全球最新最先进硬件解决方案的能力,为客户提供前所未有的下一代计算基础设施访问速度[4] - 2024年公司入选TIME100最具影响力企业和福布斯云100强榜单[6]
CoreWeave Becomes the First AI Cloud Provider to Offer NVIDIA RTX PRO 6000 Blackwell GPU at Scale