Workflow
NVIDIA B200 GPU
icon
搜索文档
他们疯抢GPU
半导体行业观察· 2025-07-30 10:18
韩国政府AI半导体投资计划 - 韩国政府将投资1.5万亿韩元(约合10.8亿美元)用于AI半导体GPU安全项目,Naver、Kakao、NHN等公司参与其中 [3] - 三家合作伙伴将利用政府首笔1.46万亿韩元补充预算购买1.3万台GPU,并在一年内分发给韩国各地产学研机构 [3] - Naver Cloud采购3,056块NVIDIA H200 GPU,其中2,296块用于支持产业、学术和研究 [3] - NHN Cloud采购7,656块NVIDIA B200 GPU,Kakao采购2,424块同型号GPU [3] - 三家公司将利用部分GPU进行内部AI开发和优化,并向产学研机构提供价格合理的GPU资源 [4] - 韩国政府与三家公司合作建立"综合GPU支持平台",使产学研机构研究人员能在线请求和获取GPU资源 [4] 欧盟AI数据中心建设计划 - 欧盟启动300亿美元计划建设可承载数百万个AI GPU的高容量数据中心网络 [4] - 欧盟已拨款100亿欧元(约合118亿美元)建立13个AI数据中心,并额外拨款200亿欧元作为千兆瓦级AI设施网络初始资金 [5] - 项目收到来自16个成员国的76份意向书,涵盖60个潜在地点 [6] - 每个千兆瓦数据中心预计需要30亿至50亿欧元,计算能力远超现有AI数据中心,可能支持超过10万个先进AI GPU [6] - 首个人工智能工厂预计将在未来几周内投入使用,慕尼黑大型项目计划于9月初启动 [6] 行业挑战与机遇 - 欧洲人均AI研究人员数量比美国高出30%,但有限的计算能力阻碍其发展 [6] - 千兆瓦级数据中心需要巨大电力,欧洲电网基础设施可能尚未准备好支撑如此高负荷 [7] - 要盈利运营这些数据中心并打造世界一流AI产品,需要开发商业模式、周密规划和吸引私营企业兴趣 [7]
什么是Scale Up和Scale Out?
半导体行业观察· 2025-05-23 09:21
AI Pod概念与架构 - AI Pod是预配置的模块化基础设施解决方案,集成计算、存储、网络和软件组件以优化AI工作负载部署效率[2] - 每个机架可视为一个AI Pod,纵向扩展(Scale-Up)指单个Pod内增加处理器/内存等资源,横向扩展(Scale-Out)指增加更多Pod节点[4] - XPU为通用处理器术语,涵盖CPU/GPU/NPU/TPU/DPU/FPGA/ASIC等类型,单个XPU刀片通常含2-8个XPU设备[4][6] 扩展模式技术对比 纵向扩展 - 优势:直接添加资源即可扩展,适合传统架构应用;可充分利用高性能服务器硬件(如高效CPU、AI加速器、NVMe存储)[8] - 限制:存在物理硬件瓶颈(如内存或CPU利用率无法线性平衡),托管成本随服务器规模显著上升[8] - 适用场景:内存/处理密集型的数据库服务或容器化应用,示例配置从1CPU/2GB内存扩展至4CPU/8GB内存[8][9] 横向扩展 - 优势:支持长期增量扩展,易缩减规模释放资源,可使用商用服务器降低成本[12] - 挑战:需重构单体架构应用,网络复杂性和跨节点数据一致性管理难度增加[13] - 通信需求:Pod内需极低延迟(如NVLink),Pod间依赖高带宽方案(如InfiniBand/超级以太网)[11][13] 关键硬件与互连技术 - NVIDIA B200 GPU晶体管数量超2000亿,体现XPU设备的高计算密度[5] - InfiniBand与超级以太网竞争数据中心互连标准,后者由AMD/英特尔/微软等推动,强调开放性与互操作性[9][13] - UALink可能成为跨XPU供应商的通用高速互连方案,但NVIDIA对其前景持保留态度[13]