Workflow
混合专家(MoE)机器学习模型
icon
搜索文档
速递|蚂蚁集团突破技术封锁:国产芯片助力AI训练成本直降20%,性能媲美英伟达H800
Z Finance· 2025-03-24 17:50
蚂蚁集团AI技术突破 - 公司正采用中国制造的半导体技术开发AI模型训练方案 有望将成本降低20% [1] - 与阿里巴巴及华为合作推进基于国产芯片的混合专家(MoE)模型训练 性能媲美英伟达H800芯片 [1] - 最新模型已主要转向AMD及国产芯片替代方案 减少对英伟达产品的依赖 [1] 技术竞争力与行业影响 - 模型在部分基准测试中超越Meta Platforms表现 若属实将为中国AI发展注入新动能 [1] - 研究成果证明中国企业通过本土化方案突破技术封锁 应对美国出口管制 [1][2] - 与英伟达战略形成对比 后者坚持开发更高端GPU而非成本削减 [2] 成本优化与模型性能 - 使用高性能硬件训练1万亿token成本约635万元人民币 优化方案可降至510万元 [3] - Ling-Lite模型(168亿参数)在英语测试优于Meta Llama 中文测试超越DeepSeek同类模型 [4] - Ling-Plus模型达2900亿参数 规模显著但低于GPT-4.5(1.8万亿)和DeepSeek-R1(6710亿) [4] 应用场景与业务布局 - 计划利用Ling系列模型为医疗健康和金融领域提供AI解决方案 [4] - 收购好大夫在线医疗平台 强化医疗健康AI服务布局 [4] - 旗下拥有智能生活助手"智小宝"和AI金融咨询服务"马小财" [4] 技术挑战 - 模型训练面临稳定性问题 硬件或结构微小变化可能导致错误率显著上升 [4]