Workflow
COMPUTEX 2025

AI演进路径 - AI发展分为四个阶段:感知智能阶段(语音识别、图像识别)、生成式AI阶段(文本、图像、视频多模态生成)、推理AI阶段(思维链、思维树技术实现复杂推理)、物理AI阶段(理解物理概念如惯性、摩擦力)[1] - 物理AI实例包括生成视频训练自动驾驶系统及按提示生成不同场景的AI 结合推理、生成和物理AI能力可开发机器人[1] Grace Blackwell架构与GB300 - GB300基于Grace Blackwell架构 已开始上线并在Coreweave等CSP中使用 第三季度正式升级[2] - GB300保持相同架构和物理占用空间 但Blackwell芯片推理性能提升1.5倍 HBM内存增加1.5倍 网络能力提高2倍[2] - 单个节点性能约40 petaflops 相当于2018年Sierra超级计算机 采用100%液冷设计[2] 芯片制造与NVLink技术 - TSMC与公司合作开发CoWoS-L工艺 实现巨型芯片制造 NVLink传输速度达7.2TB/s 机架内带宽130TB/s[3] - 机架功耗120千瓦 需采用液冷设计 所有组件必须集中在一个机架中[3] NVLink Fusion生态系统 - NVLink Fusion开放系统架构 允许合作伙伴集成定制ASIC或CPU 通过NVLink芯片组连接Blackwell及下一代Rubin芯片[4][5] - 生态系统支持混搭英伟达组件与第三方CPU/ASIC 兼容Spectrum X网络 已有大量工业合作伙伴[4][5] DGX Spark与工作站 - DGX Spark进入全面生产 定位AI原生开发者 提供1 petaflops算力和128GB内存 支持原型设计和早期开发[6] - 推出桌面级个人DGX超级计算机 由戴尔、惠普等厂商提供 可运行1万亿参数AI模型 兼容家庭插座供电[6] 企业级AI代理 - RTX Pro Enterprise服务器集成x86架构 兼容传统IT虚拟化工具 支持多模态AI代理任务[7] - 相比H100 在Meta Llama和DeepSeek-R1等开源模型推理性能分别提升1.7倍和4倍[7]