高通发布AI200和AI250 赋能高速生成式AI推理

产品发布核心 - 高通公司宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200与AI250芯片的加速卡及机架系统 [1] - 这些解决方案旨在提供机架级性能与卓越的内存容量,以出色的每美元每瓦特性能赋能高速生成式AI推理 [1] - 此次发布被公司视为推动各行业可扩展、高效率、高灵活性生成式AI部署的重要里程碑 [1] Qualcomm AI200 解决方案 - Qualcomm AI200是专为机架级AI推理打造的解决方案,旨在为大语言模型与多模态模型推理提供低总体拥有成本与优化性能 [1] - 每张AI200加速卡支持768GB LPDDR内存,实现更高内存容量与更低成本,为AI推理提供卓越的扩展性与灵活性 [1] Qualcomm AI250 解决方案 - Qualcomm AI250解决方案首发基于近存计算的创新内存架构,实现超过10倍的有效内存带宽提升并显著降低功耗 [1] - 该架构支持解耦式AI推理,实现硬件资源的高效利用,同时满足客户性能与成本需求 [1] 系统特性与支持 - 两款机架解决方案均支持直接液冷散热以提升散热效率,支持PCIe纵向扩展与以太网横向扩展,并具备机密计算以保障AI工作负载安全 [2] - 整机架功耗为160千瓦 [2] - 公司拥有丰富的软件栈与开放生态支持,支持主流AI框架的无缝兼容性和一键模型部署功能 [2] - 软件栈覆盖从应用层到系统软件层的全链路,支持主流机器学习框架、推理引擎、生成式AI框架以及解耦服务等优化技术 [2] 商业化时间表与未来规划 - Qualcomm AI200与AI250预计将分别于2026年和2027年实现商用 [3] - 未来公司将致力于按照年度迭代节奏持续推进数据中心产品技术路线图,聚焦业界先进的AI推理性能、能效与总体拥有成本优势 [3]