Workflow
AI计算基础设施
icon
搜索文档
宜信财富:构建AI工厂,全球数字竞争下实现突围
金投网· 2025-05-20 18:40
随着AI进入推理范式及多智能体阶段,分布式算力需求呈指数级增长。在推理场景中,AI模型需实时处理 海量数据以做出决策;多智能体系统要求多个智能体高效协作通信。传统计算架构难以应对如此庞大的 计算压力,这促使液冷技术、高带宽内存和专用互联网络等领域不断创新。液冷技术有效解决散热难题, 高带宽内存提升数据处理速度,专用互联网络实现低延迟通信,为分布式计算提供坚实支撑。 在科技飞速发展的当下,AI技术已成为推动各行业变革的核心力量,而AI计算基础设施作为其底层支撑,正 经历着从单一GPU集群向综合AI工厂的重大变革。 过去,单一GPU集群凭借强大的并行计算能力,在AI模型训练领域发挥了重要作用。但随着AI应用场景愈 发复杂多样,从智能语音助手到自动驾驶汽车,从医疗影像诊断到金融风险预测,单一GPU集群逐渐难以满 足需求。综合AI工厂应运而生,它将计算、存储、网络和冷却系统等关键要素有机整合。通过智能调度 算法,计算资源可根据不同AI工作负载动态分配,存储系统提供海量数据(603138)存储与快速访问,高速 网络确保数据高效传输,先进的冷却系统保障设备稳定运行。这种整合使得AI工厂能为各类AI任务提供 高度可扩展的解 ...
gtc第二天 发布新品
小熊跑的快· 2025-03-19 09:00
AI技术演进与架构升级 - 公司提出AI技术发展路径:从Perception AI到Generative AI,即将进入Agentic AI阶段,未来将迈向Physical AI(机器人时代)[1] - 发布开源AI模型系列及企业级Blackwell Ultra DGX SuperPOD,支持Agentic AI平台开发[1] - 计算需求呈现超快加速趋势,扩展定律覆盖预训练、训练后及测试时间("长思维")[1] 芯片采购与市场前景 - 美国四大云服务商2024年采购130万颗Hopper架构芯片,2025年追加采购360万颗Blackwell架构芯片[2] - 预计2028年全球智算中心资本开支将超1万亿美元[2] - B系列芯片获云厂商大规模采购,订单量超300万颗[1] Blackwell架构技术突破 - Blackwell架构全面投产,超级芯片Grace Blackwell NVLink 72集成72个GPU,FP4计算性能达1.4 EFLOPS[2] - 推出开源软件Dynamo,解决token供应瓶颈问题,Blackwell架构较Hopper性能提升25倍[2] - Blackwell Ultra NVL72平台带宽为前代GB200的2倍,内存速度提升1.5倍[3] - GB300 NVL72机架设计支持72块GPU,LLM推理速度较Hopper提升11倍,计算能力提高7倍,内存增加4倍[3] 下一代芯片路线图 - Vera Rubin平台2026年下半年出货,NVLink 144技术支持性能达GB300 NVL72的3.3倍[4] - Rubin推理速度50 petaflops,超Blackwell芯片20 petaflops的1倍多,支持288GB快速内存[4] - Rubin Ultra NVL576预计2027年推出,性能为GB300 NVL72的14倍[4] - 2028年将推出Feynman架构,延续技术迭代[4] 跨领域AI合作生态 - 自动驾驶领域:与通用汽车深化合作开发自动驾驶技术,推出汽车安全解决方案Halos[5] - 6G网络领域:联合思科、T-Mobile研发AI原生无线网络[5] - 机器人领域:发布开源人形机器人模型GR00T N1,与DeepMind、迪士尼开发物理引擎Newton[5] - AI硬件领域:推出Blackwell架构AI电脑DGX Spark和DGX Station,分别采用GB10和GB300芯片[5] 算力效率与成本趋势 - 算力效率每8个月提升3倍,成本持续大幅下降[6] - 技术迭代显著降低云厂商与应用端运营成本[6]