GMI Studio
搜索文档
GMI Cloud:出海是AI企业释放产能、获取新生的最佳途径|WISE 2025
36氪· 2025-12-09 18:38
文章核心观点 - AI应用出海正经历范式革新,从单向技术输出转向算力、需求、价值的全球化与全球价值共振[8][43] - AI应用出海面临的核心挑战是模型推理服务的及时性、扩展性以及稳定性[2][18] - 北美等海外市场用户对AI应用接受度高,需求旺盛,出海成为中国AI公司释放产能、获取新生的最佳途径[8][15][16] - 作为AI原生云服务商,公司通过构建全球算力基础设施与进化推理架构,旨在解决AI出海的效能问题[6][11][14] 行业趋势与市场观察 - AI市场正处于指数级增长阶段,中国海外AI应用的月活用户持续攀升[15] - 90%以上的美国知识工作者已非常熟练地使用AI工具,中东及拉丁美洲的AI应用也达到较高水位,海外用户教育基本完成[15][16] - 国内SaaS市场高同质化、高获客成本,而出海市场存在极大的需求水位差[16] - 过去两年中国AI服务出海导致AI推理需求指数型暴涨[17] - AI技术栈迭代极快,例如从2025年1月到5月,因多节点系统推理爆发,Token价格从高位降至地板价[20] 公司业务与产品介绍 - 公司是英伟达首批六大Reference Cloud Partner之一,专注于出海AI基础设施[7][13] - 公司在全球多地(东亚、南亚、北美、欧洲、加拿大)建有自有机房[14] - 公司耗资5亿美元,在亚洲与英伟达共建了一座GB300万卡集群的AI Factory[14][21][22] - 公司拥有三大产品线:底层的计算硬件、集群管理、MaaS层的推理服务[14] 集群引擎产品特性 - 集群引擎是标准的IaaS层,覆盖底层硬件、裸金属及集群管理,并提供丰富的可监控性插件[27] - 支持类似AWS、GCP等海外大云的GPU workload功能[27] - 采用特殊化的IB组网技术,允许客户选择所需集群尺寸进行训练[27] - 支持多云架构,客户可在自有资源与传统大云资源间切换,以满足峰值扩缩容需求[27] 推理引擎产品特性 - 推理引擎是Serverless产品,集成了全球头部开源与闭源大模型,通过单一API即可访问[29][30] - 推理引擎2.0支持跨集群、跨地区的自动扩缩容,以应对流量峰值和优化不同地区用户体验[30][31] - 采用三层设计架构调度全球资源,根据工作负载对延迟或成本的敏感度,通过基于队列或负载均衡的调度方式分发至不同大区[31] - 推理引擎具备五大核心特征:全球化部署、二级调度架构、弹性伸缩、高可用设计、所有工作负载的统一管理[33][34][35][36] - 支持混合云,可统一纳管自建集群、公司自有集群及公有云上的工作负载与额度[37] 未来产品与行业展望 - 公司即将上线“GMI Studio”产品,用户无需本地环境,可通过云端拖拽方式自由组合最新AI模型及应用[39][40] - 2026年AI出海范式将升级为“全球价值共振”,即算力、技术、需求在全球范围内形成双向赋能生态[43] - 算力层将实现全球资源余缺互补,应用层的Token将从API调用计量演进为算力结算与生态激励的复合价值载体[43]
GMI Cloud:出海是AI企业释放产能、获取新生的最佳途径|WISE 2025
36氪· 2025-12-08 18:44
公司介绍 - GMI Cloud是一家北美AI原生云服务商,也是英伟达首批六大参考云合作伙伴之一[2] - 公司专注于为出海AI应用提供基础设施,拥有三大产品线:底层的计算硬件、集群管理以及模型即服务层的推理服务[7] - 公司在全球多地(东亚、南亚、北美、欧洲、加拿大)建有自有机房,并刚刚耗资5亿美元,在亚洲与英伟达合作建设了一座GB300万卡集群的AI工厂[7] - 在中国市场,公司主要面向AI出海企业用户,帮助其完成出海业务[7] 行业趋势与市场洞察 - AI市场正处于指数级增长阶段,尽管对2025年下半年或2026年的市场存在不同分析,但整体方向向上[8] - 中国海外AI应用的月活跃用户数量持续攀升[8] - 全球用户,尤其是北美用户,已养成主动拥抱AI的习惯,90%以上的美国知识工作者已非常熟练地使用AI工具[8] - 在中东及拉丁美洲,AI应用也已达到较高水位,用户教育基本完成,为出海创造了巨大的需求水位差[10] - 过去两年中,许多国内企业已进行AI服务出海,随之而来的是AI推理需求的指数型暴涨[10] - 国内SaaS市场存在高同质化、高获客成本的特点,门槛较高[9] AI出海面临的挑战 - AI出海企业在推理方面面临服务及时性、扩展性及稳定性的核心挑战[11] - AI产品的流量可能突然暴增,企业难以用传统软件的方式进行常规扩容,全球性扩容尤其具有挑战性[11] - AI技术栈迭代速度极快,从2025年1月到5月,由于多节点系统推理爆发,Token价格从较高水位降至地板价[11] - 企业需要投入自身资源以跟上技术发展,这带来了困扰[12] 公司解决方案:集群引擎 - 集群引擎是一个标准的IaaS层,覆盖底层硬件、裸金属及集群管理,并提供大量可监控性插件[13] - 该引擎专注于GPU算力,支持海外主流云服务商(如GCP、AWS)的GPU工作负载相关功能[13] - 采用特殊化的IB组网技术,允许客户选择所需的集群尺寸进行训练[13] - 支持混合云架构,已接入多云架构,客户可在自有资源与传统大云资源间切换,以满足峰值扩缩容需求[13] - 该产品主要面向具有一定工程技术能力、希望开发复杂应用的客户[12] 公司解决方案:推理引擎 - 推理引擎是一个更简单的产品,类似于Serverless概念[14] - 集成了全球头部的开源与闭源大模型,用户通过一个API即可访问全球最新最强的模型[15] - 推理引擎2.0版本支持跨集群、跨地区的自动扩缩容,以应对出海客户面临的流量峰值和地区性体验问题[15][16] - 采用三层设计架构调度全球资源,工作负载主要分为两种调度方式:基于队列(适用于视频或语音类模型)和基于负载均衡(适用于大语言模型)[16] - 根据工作负载对延迟或成本的敏感度,将其调度至不同大区,并最终分发至终端GPU[16] - 推理引擎具备五大核心特征:全球化部署、二级调度架构、弹性伸缩、高可用设计以及所有工作负载的统一管理[16][17][18][19] - 同样支持混合云,可统一纳管客户自建集群、GMI Cloud集群或其他公有云上的工作负载,解决资源碎片化与利用率问题[20] 公司产品动态 - 公司推出了推理引擎2.0的“Dedicated Endpoint”(独站式节点)产品,供客户托管自有模型出海,客户可选择将节点部署到特定集群和地区,并根据需求选择成本或性能更优的节点[20][21] - 公司即将上线名为“GMI Studio”的新产品,这是一个面向创业者和用户的创作体验平台,用户无需本地环境或复杂框架,即可通过云端拖拽方式自由组合最新的AI模型及应用[22] 未来展望:AI出海范式升级 - 2026年,AI出海将从旧范式(单向技术输出)升级为新范式(全球价值共振)[23] - AI全球化将跳出“技术单向输出”的浅层认知,推动全球AI产业从“资源割裂”向“价值循环”的底层变革[23] - 新范式意味着算力、技术、需求在全球范围内形成“双向赋能生态”[23] - 在算力层,全球资源将实现余缺互补,优质算力加速模型优化;在应用层,Token将从单纯的API调用计量,演进为算力结算与生态激励的复合价值载体[23] - 全球AI创新将形成共生关系,模型、应用、场景、算力正在形成新的价值正循环[23]