AI计算基础设施

搜索文档
宜信财富:构建AI工厂,全球数字竞争下实现突围
金投网· 2025-05-20 18:40
AI计算基础设施的变革 - AI计算基础设施正从单一GPU集群向综合AI工厂转变,整合计算、存储、网络和冷却系统等关键要素 [1] - 综合AI工厂通过智能调度算法动态分配计算资源,提升AI应用的开发效率和运行性能 [1] - 单一GPU集群难以满足复杂多样的AI应用场景需求,如智能语音助手、自动驾驶汽车、医疗影像诊断和金融风险预测 [1] 分布式算力需求与技术发展 - AI进入推理范式及多智能体阶段,分布式算力需求呈指数级增长 [2] - 液冷技术、高带宽内存和专用互联网络等创新技术为分布式计算提供支撑 [2] - 推理场景中AI模型需实时处理海量数据,多智能体系统要求高效协作通信 [2] AI基础设施的战略意义 - AI基础设施的战略意义已上升至国家竞争力和数据主权高度 [2] - 掌握先进AI基础设施意味着掌握数据处理主动权,在全球竞争中占据优势 [2] - 多国政府和行业领导者在GTC国际主权AI峰会探讨AI工厂作为数字转型和弹性的关键基础设施 [2] 全球AI基础设施发展趋势 - 专业化、主权化和领域特色化成为全球AI基础设施发展的主要趋势 [3] - 各国和企业积极构建符合自身发展需求的AI基础设施体系,推动经济社会数字化转型 [3] - 印尼、印度侧重语言和文化适应的基础模型,德国聚焦铁路自动化和交通智能化升级 [2]
gtc第二天 发布新品
小熊跑的快· 2025-03-19 09:00
AI技术演进与架构升级 - 公司提出AI技术发展路径:从Perception AI到Generative AI,即将进入Agentic AI阶段,未来将迈向Physical AI(机器人时代)[1] - 发布开源AI模型系列及企业级Blackwell Ultra DGX SuperPOD,支持Agentic AI平台开发[1] - 计算需求呈现超快加速趋势,扩展定律覆盖预训练、训练后及测试时间("长思维")[1] 芯片采购与市场前景 - 美国四大云服务商2024年采购130万颗Hopper架构芯片,2025年追加采购360万颗Blackwell架构芯片[2] - 预计2028年全球智算中心资本开支将超1万亿美元[2] - B系列芯片获云厂商大规模采购,订单量超300万颗[1] Blackwell架构技术突破 - Blackwell架构全面投产,超级芯片Grace Blackwell NVLink 72集成72个GPU,FP4计算性能达1.4 EFLOPS[2] - 推出开源软件Dynamo,解决token供应瓶颈问题,Blackwell架构较Hopper性能提升25倍[2] - Blackwell Ultra NVL72平台带宽为前代GB200的2倍,内存速度提升1.5倍[3] - GB300 NVL72机架设计支持72块GPU,LLM推理速度较Hopper提升11倍,计算能力提高7倍,内存增加4倍[3] 下一代芯片路线图 - Vera Rubin平台2026年下半年出货,NVLink 144技术支持性能达GB300 NVL72的3.3倍[4] - Rubin推理速度50 petaflops,超Blackwell芯片20 petaflops的1倍多,支持288GB快速内存[4] - Rubin Ultra NVL576预计2027年推出,性能为GB300 NVL72的14倍[4] - 2028年将推出Feynman架构,延续技术迭代[4] 跨领域AI合作生态 - 自动驾驶领域:与通用汽车深化合作开发自动驾驶技术,推出汽车安全解决方案Halos[5] - 6G网络领域:联合思科、T-Mobile研发AI原生无线网络[5] - 机器人领域:发布开源人形机器人模型GR00T N1,与DeepMind、迪士尼开发物理引擎Newton[5] - AI硬件领域:推出Blackwell架构AI电脑DGX Spark和DGX Station,分别采用GB10和GB300芯片[5] 算力效率与成本趋势 - 算力效率每8个月提升3倍,成本持续大幅下降[6] - 技术迭代显著降低云厂商与应用端运营成本[6]