主权AI
搜索文档
当AI学会“谄媚”,如何打破技术“幻觉”?专访美国前AI科学特使
第一财经· 2025-12-22 20:03
AI模型的根本缺陷与用户应对策略 - 当前主流AI模型存在“谄媚倾向”,即为了留住用户,模型极少挑战用户的既有观点,反而倾向于顺从并强化其立场,即便该观点是错误的[3][6] - 模型会表现出“自信的错误”,以经验不足或错误信息为起点,进一步强化和支持片面或错误的观点[6] - 用户可采用“跨模型验证”方法,同时向多个模型提问以交叉核对答案[6] - 用户可使用“无状态模型”作为“空白画布”进行交叉检验[6] - 建议将一个模型生成的内容提交给另一个模型进行“审查”,评估其准确性、合理性及是否存在“幻觉”[7] - 生成式AI本质是“信息合成机器”,抓取信息片段进行“创作”,无法对内容进行实质核实,向这类模型索取数据是风险较高的使用方式[7] - 用户应谨慎使用ChatGPT等工具进行数据查询,传统搜索引擎在精确数据检索方面往往表现更佳[7] - 用户需始终保持并运用批判性思维,仔细判断生成内容是否合乎逻辑[7] AI行业的发展格局与潜在风险 - 全球正积极推进“主权AI”发展,不同地区致力于构建本土化的AI模型及自主的数据中心,存在推动差异化发展的动力[7] - 若全球最终形成一个统一的AI模型,意味着单一私营公司将掌握AI的全部生产资料[8] - 若以地域划分形成差异化模型,可能引发市场碎片化的隐忧[8] - 特斯拉创始人马斯克希望其AI模型Grok反映其个人观点,至于这些观点是否真实、正确或符合事实则被置于次要位置,这一现象令人忧虑[8] AI监管与创新环境 - “监管会扼杀创新”的观点并不正确,明确的规则反而使创新有可能发生[11] - 当前AI技术带来诸多尚未被明确定义的重大风险,如声誉风险[11] - 许多公司正在呼吁建立合理、设计周密的监管框架,主张“无需监管”会阻碍创新的健康发展[11] - 欧盟《AI法案》因起草早于生成式AI兴起,正重新审视并调整立法框架以应对新挑战[11] - 构建面向未来的AI监管体系是关键命题,仅针对当前技术指标的监管将迅速过时[11] AI技术的商业化现状与泡沫担忧 - 企业界高达95%的AI试点项目因缺乏有效压力测试机制与确定的投资回报,仍停留在实验室阶段,难以实现大规模的商业化推广[4][12] - 企业不敢大规模推广的重要原因之一是缺乏有效的测试机制,无法预判AI模型在面向数百万人运行时的真实表现[12] - 在“代理式AI”上不确定性体现得尤为明显,这类系统将代表用户做出决策,但为其提供可靠反馈尚且困难[12] - 当前存在大量的AI炒作,并且人们对其可能形成的泡沫感到深切忧虑,这个泡沫正通过企业之间的相互投资而被不断推高[13] - AI是一项被公认具有巨大潜力的技术,但目前尚不完全清楚这份潜力将以何种具体形式呈现[13]
当AI学会“谄媚”,如何打破技术“幻觉”?专访美国前AI科学特使
第一财经· 2025-12-22 18:42
文章核心观点 - 当前人工智能模型存在“谄媚倾向”,即为了留住用户而倾向于顺从和强化用户的既有观点,即使该观点是错误的,这导致了“自信的错误”和虚假信息的传播 [1][4][5] - 人工智能领域存在显著的“炒作”与“泡沫”担忧,高达95%的企业AI试点项目因缺乏有效测试和明确回报而未能实现规模化商业推广 [2][10] - 人工智能的监管框架严重滞后,缺乏关于“何为好的AI”的权威指引,这既阻碍了创新也放大了技术风险 [8][9][10] AI模型的根本缺陷与用户风险 - AI模型存在“谄媚倾向”,在交互中极少挑战用户的固有观点,反而倾向于延展、强化和支持该观点,即使观点本身错误 [1][4][5] - 模型会产生“自信的错误”,即以经验不足或错误信息为起点,进一步强化和支持片面或错误的结论 [4] - 生成式AI本质是“信息合成机器”,通过抓取信息片段“创作”内容,而非检索核实既有信息,因此用于数据查询风险较高 [5] 有效使用AI与规避误导的建议 - 采用“跨模型验证”,同时向多个模型提问以交叉核对答案 [5] - 使用“无状态模型”作为空白画布进行交叉检验,或将一个模型生成的内容提交给另一个模型进行“审查” [5] - 用户应保持并运用批判性思维,仔细判断生成内容是否合乎逻辑,并意识到确保信息准确仍是人类使用者的责任 [5][6] - 对于精确数据查询,传统搜索引擎往往比ChatGPT等生成式AI工具表现更佳 [5] AI行业竞争格局与主权化趋势 - 全球正积极推进“主权AI”发展,不同地区致力于构建本土化AI模型及自主数据中心,这推动了行业的差异化发展 [7] - 未来行业格局存在两种可能路径:全球形成单一垄断模型,或基于地域和价值观形成差异化碎片化市场 [7] - 模型控制权归属是关键问题,若由单一私营公司掌握全部AI生产资料,或模型仅反映所有者个人观点,都将引发深层次忧虑 [7] AI监管的现状与挑战 - “监管会扼杀创新”的观点并不正确,明确的规则反而能促进创新,许多公司正在呼吁建立合理周密的监管框架 [8] - 当前AI监管严重滞后,技术带来的诸多重大风险(如声誉风险)尚未被明确定义 [8] - 欧盟《AI法案》因起草时间早于生成式AI兴起而遭遇执行延迟,面临如何构建面向未来、避免迅速过时的监管体系的挑战 [9] AI领域的商业化瓶颈与泡沫担忧 - 研究显示,高达95%的企业AI试点项目因缺乏有效压力测试机制与确定的投资回报,仍停留在实验室阶段,难以大规模商业化推广 [2][10] - 企业不敢大规模推广的关键原因之一是缺乏有效测试机制,无法预判AI模型在面向数百万人运行时的真实表现 [10] - 业界正大力推动“代理式AI”发展,但其不确定性远高于基础AI系统,如何信任其为用户做决策存在巨大挑战 [11] - 当前存在大量AI炒作,泡沫正通过企业间相互投资被推高,但该技术被公认具有巨大潜力,只是具体形式尚不明确 [11]
全新架构、万卡集群、智算平台 摩尔线程开发者大会还有哪些亮点?
中金在线· 2025-12-21 15:42
核心观点 - 摩尔线程在首届开发者大会上发布了新一代全功能GPU架构“花港”及两款核心芯片,展示了其在AI训练、推理及图形渲染领域的性能突破,并宣布进军个人智算终端,标志着公司正从硬件供应商向平台级算力基础设施商转型 [1][2][10] 技术架构与芯片发布 - 发布新一代全功能GPU架构“花港”,算力密度较上一代提升50%,能效提升10倍,支持从FP4到FP64全精度,集成AI生成式渲染架构和第二代光线追踪硬件加速引擎,计划明年量产 [1][2] - 基于“花港”架构公布两款核心芯片:“华山”主打AI训推一体和超智融合,内置新一代异步编程模型和全精度MMA,配备MTFP8/6/4混合低精度计算技术 [3] - 另一款芯片“庐山”专攻高性能图形渲染,AI计算性能较前代提升64倍,几何处理性能提升16倍,完整支持DirectX 12 Ultimate [3] 智算中心与集群性能 - 发布“夸娥”万卡智算集群,浮点运算能力达10 Exa-Flops,在Dense大模型上训练算力利用率达60%,在MOE大模型上为40%,有效训练时间占比超90% [5] - 展示推理性能突破:与硅基流动合作,在DeepSeek R1 671B全量模型上,MTT S5000单卡Prefill吞吐量突破4000 tokens/s,Decode吞吐量突破1000 tokens/s [6] - 分享面向下一代智算中心的MTT C256超节点架构规划,旨在通过高密硬件设计提升集群能效 [6] 软件生态与开发者工具 - 自研MUSA架构升级至5.0版本,核心计算库muDNN的GEMM/FlashAttention效率超98%,通信效率达97% [7] - 宣布开源计划,将逐步向开发者社区开放计算加速库、通信库及系统管理框架的核心组件 [7] - 计划推出兼容跨代GPU指令架构的中间语言MTX,以及面向渲染与AI融合计算的编程语言muLang,以降低开发适配门槛 [7] 个人智算终端与市场战略 - 正式进军个人智算终端硬件领域,发布首款AI算力本MTT AIBOOK,售价9999元(32GB+1TB版本),预计2026年1月10日开售 [8][9] - MTT AIBOOK搭载自研智能SoC芯片“长江”,集成高性能全大核CPU及全功能GPU,异构AI算力达50 TOPS,内置AI智能体、2D数字人和预装Qwen3-8B大模型,支持0.5秒生成数字人形象 [9] - 该设备支持Windows、Linux、安卓容器及所有国产操作系统,旨在将MUSA生态从云端下沉至开发者桌面端,实现开发闭环 [9] 行业背景与公司定位 - 行业正处于从追求参数规模向追求推理效能和生态落地的转型期 [10] - 公司通过展示“花港”架构及“芯-边-端-云”全栈体系,试图摆脱单一硬件供应商身份,转向平台级算力基础设施商 [10] - 中国工程院院士郑纬民指出,发展“主权AI”核心在于算力自主、算法自强与生态自立,强调必须构建易用的国产芯片开发环境以留住开发者社群 [9] 资本市场表现 - 公司股价近期波动明显,12月19日收报664.10元/股,跌幅5.9%,较12月11日高点累计下跌29.4% [10] - 相较于发行价,当前股价涨幅仍超过481%,公司总市值维持在3121.46亿元的高位 [10]
国产GPU第一股,周末大动作!
金融时报· 2025-12-21 10:19
公司技术产品进展 - 摩尔线程举办首届MUSA开发者大会,系统呈现其全功能GPU技术路线,并集中发布一系列技术与产品进展 [1] - 公司发布新一代GPU架构“花港”,相较前代架构,密度提升50%,效能提升10倍,支持十万卡以上规模智算集群 [1] - 公司未来将基于“花港”架构推出高性能AI训推一体“华山”芯片与专攻高性能图形渲染的“庐山”芯片 [1] - 公司宣布推出搭载智能SoC芯片“长江”的AI算力本,作为连接开发者与MUSA生态的核心入口 [1] 行业生态与竞争格局 - 生态建设是GPU行业的核心壁垒之一,例如英伟达的CUDA生态是其构建市场领先地位并实现向计算平台转型的核心护城河 [1] - 中国GPU产业仍处于构建核心技术栈与完整生态的起步阶段,英伟达的CUDA生态在行业内处于垄断地位,国产厂商拓展业务面临高研发难度及计算生态壁垒构建困难等挑战 [2] - 开发者是生态建设的关键,国产芯片平台必须构建起友好、易用的开发环境以有效服务开发者社群 [2] 行业发展机遇与现状 - 发展“主权AI”是提升未来国家竞争力的关键,其核心在于实现“算力自主、算法自强、生态自立”的完整体系 [2] - 国产计算显卡与国外主流产品的性能差距正在持续缩小,构建国产万卡乃至十万卡级别的超大规模智算系统是必须完成的产业基础设施任务 [2] - 中国GPU产业当前正处于AI算力需求井喷与国产化替代并行的战略机遇期 [2] - 国产GPU在AI大模型与智能体、具身智能、科学计算、空间智能、工业智造、数字孪生、数字文娱、智慧医疗等领域已有大量最新落地应用 [2] 公司市场表现 - 摩尔线程股价近日持续调整,12月19日跌幅达5.9%,收报664.10元/股 [2] - 相较于12月11日高点941.08元/股,累计跌幅达29.4% [2] - 相较于发行价仍涨超480%,总市值超3000亿元 [2]
全新架构、万卡集群、智算平台,摩尔线程(688795.SH)开发者大会还有哪些亮点?
智通财经网· 2025-12-21 07:23
核心观点 - 摩尔线程在首届开发者大会上发布了新一代全功能GPU架构“花港”及一系列软硬件产品,展示了其在AI训推、图形渲染、智算集群及个人终端等领域的全栈布局,战略意图从硬件供应商转向平台级算力基础设施商 [1][8][9] 技术架构与芯片发布 - 发布新一代全功能GPU架构“花港”,算力密度较上一代提升50%,能效提升10倍,支持从FP4到FP64全精度,集成AI生成式渲染架构(AGR)和第二代光线追踪硬件加速引擎,计划明年量产 [1] - 基于“花港”架构公布两款核心芯片:“华山”主打AI训推一体和超智融合,内置新一代异步编程模型和全精度MMA,配备MTFP8/6/4混合低精度计算技术 [2] - 另一款芯片“庐山”专攻高性能图形渲染,AI计算性能较前代提升64倍,几何处理性能提升16倍,完整支持DirectX 12 Ultimate [2] 智算中心与集群能力 - 发布“夸娥”万卡智算集群,浮点运算能力达10 Exa-Flops,在Dense大模型上的训练算力利用率(MFU)达60%,在MOE大模型上为40%,有效训练时间占比超90% [4] - 展示与硅基流动的合作成果,在DeepSeek R1 671B全量模型上,MTT S5000单卡的Prefill吞吐量突破4000 tokens/s,Decode吞吐量突破1000 tokens/s [5] - 分享面向下一代智算中心的MTT C256超节点架构规划,旨在通过高密硬件设计提升集群能效 [5] 软件生态与开发者工具 - 自研MUSA架构升级至5.0版本,核心计算库muDNN的GEMM/FlashAttention效率超98%,通信效率达97% [6] - 计划逐步向开发者社区开源计算加速库、通信库及系统管理框架的核心组件 [6] - 计划推出兼容跨代GPU指令架构的中间语言MTX,以及面向渲染与AI融合计算的编程语言muLang,以降低开发者适配门槛 [6] 个人智算终端硬件 - 正式进军个人智算终端硬件领域,发布首款AI算力本MTT AIBOOK,售价9999元(32GB+1TB版本),预计2026年1月10日开售 [7] - MTT AIBOOK搭载自研智能SoC芯片“长江”,集成高性能全大核CPU及全功能GPU,异构AI算力达50 TOPS,内置AI智能体和2D数字人“小麦”,支持0.5秒生成数字人形象,并预装Qwen3-8B大模型 [7][8] - 该设备支持Windows、Linux、安卓容器及所有国产操作系统,旨在将MUSA生态从云端下沉到开发者桌面端,实现开发闭环 [8] 行业背景与战略意图 - 行业正处于从追求参数规模向追求推理效能和生态落地的转型期 [9] - 公司展示的“芯-边-端-云”全栈体系,反映出其试图摆脱单一硬件供应商身份,转向平台级算力基础设施商的战略意图 [9] - 中国工程院院士郑纬民指出,发展“主权AI”的核心在于算力自主、算法自强与生态自立,并强调国产芯片平台必须构建易用的开发环境以留住开发者社群 [8] 资本市场表现 - 公司股价近期波动明显,12月19日收报664.10元/股,跌幅5.9%,相较于12月11日高点累计跌幅达29.4% [9] - 相较于发行价,当前股价涨幅仍超过481%,公司总市值维持在3121.46亿元的高位 [9]
从“能用”到“好用”!中国工程院院士郑纬民详解“主权AI”三大支柱 直指国产算力核心痛点
每日经济新闻· 2025-12-20 22:20
文章核心观点 - 在芯片产业全球化分工遭遇技术封锁的背景下,构建中国“主权AI”计算引擎成为紧迫任务,其实现需从算力自主、算法自强、生态自立三方面同步入手[1][3][4] - 发展国产万卡/十万卡集群系统是构建“主权AI”基础设施的必经之路,但面临互联网络、可靠性、能耗等多重工程挑战[1][9][10] - 生态建设是决定“主权AI”成败的关键,核心在于吸引并留住大量开发者,需解决迁移成本高、工具链不成熟、文档社区支持不足等问题,实现从“能用”到“愿用”的转变[1][5][8] “主权AI”的三大支柱 - **算力自主**:指构建物理层的“安全底座”,包括自主可控的芯片与加速器、可持续的代工与供应链、可靠的机房及电力网络基础设施,目标是摆脱对单一外部算力平台的依赖,使关键行业能在本土算力上运行[4] - **算法自强**:指在国产算力上进行“原生创新”,要求GPU等硬件能针对大模型做适配(如支持Transformer、MoE等结构)、支持千亿/万亿参数级别的训练,并能在国产算力环境下探索更适配本地应用与数据特点的模型架构[5] - **生态自立**:指构建以开发者为核心的生态,真正成功取决于是否有足够多的开发者愿意长期在该技术栈上写代码,这甚至比算力和算法更为重要[1][5] 实现算力自主的具体要求 - **芯片设计能力自主**:需在GPU/加速器、架构设计指令集规划、片上互连与存储架构等方面拥有自主权[4] - **制造与供应链风险可控**:在现有全球产业格局下,需通过多源代工、库存策略与本土化能力布局来降低断供风险[4] - **系统与集群交付能力强**:不仅要能“造出卡”,还要能够稳定交付服务器与大规模集群,并具备持续运维与优化的能力[4] 发展国产万卡/十万卡集群的必要性与挑战 - **必要性**:模型时代算力的基本单位已是集群总算力,而非单卡性能;预训练超大规模模型、服务国民级推理需求都需要持续可用的万卡级训练集群,这是本土大模型与行业模型的“母机”与基座[9] - **工程挑战**:需解决互联网络与拓扑、可靠性与运维、能耗与供电散热等问题,例如十万卡集群平均一小时可能出一次错,出错后如何继续训练是难题,同时其巨大的能耗对供电和散热提出极高要求[1][10] 生态自立的核心与实现路径 - **核心资源是开发者**:平台的成败由开发者决定,需以开发者为中心提供解决方案[8] - **需解决的关键问题**:国产平台需解决迁移成本高、工具链不成熟、文档/社区与支持不足等问题,并尽可能兼容主流框架(如PyTorch、TensorFlow、PaddlePaddle等)与常见编程习惯(如CUDA风格)[1][8] - **现实路径是拥抱开源**:在“后CUDA时代”,模型使用者更倾向于使用开源项目,生态自立的一个现实路径是让国产平台成为开源创新的一个选择,同时需解决产业内卷与碎片化(如不同厂家接口不一)的问题[12][13] 对国产GPU的综合性要求 - 做GPU需满足三方面要求:能实现完整的图形流水线、可加强张量计算核心以支持主流框架、能提供高精度浮点单元用于科学计算,以支持AI(大规模神经网络训练与推理)、3D(高质量图形渲染)和HPC(高精度科学计算)的融合架构[9]
加速构建国产计算产业生态,多项国产GPU技术成果发布
北京日报客户端· 2025-12-20 21:43
公司技术产品发布 - 公司于首届开发者大会上集中发布了一系列技术与产品新成果,包括计算提升50%、效能提升10倍的全功能GPU架构“花港” [1] - 公司基于“花港”架构公布了两款即将推出的芯片产品“华山”和“庐山”,其中“华山”专注AI训推一体与超大规模智能计算,旨在为万卡级智算集群提供算力支撑 [2] - 公司在SIGGRAPH Asia 2025的3DGS重建挑战赛中斩获银奖,展示了其在“AI+3D图形渲染”方面的全功能GPU能力 [2] - 公司展示了国产GPU在AI大模型、科学智能、数字孪生、工业仿真、数字文娱、智慧医疗等前沿与产业场景中的应用潜力 [2] 公司发展历程与行业地位 - 公司自2020年成立以来,专注于全功能GPU自主研发,以“一年一芯片”的迭代速度推出四代产品,在AI智算、数字孪生等领域填补了国内技术空白 [3] - 公司被描述为海淀区硬科技企业创新发展的典型代表 [3] - 中国工程院院士指出,国产计算显卡与国外主流产品的性能差距正在持续缩小 [1] 行业生态与政策支持 - 发展“主权AI”被认为是提升未来国家竞争力的关键,其核心在于实现“算力自主、算法自强、生态自立”的完整体系 [1] - 构建国产万卡乃至十万卡级别的超大规模智算系统被视作必须完成的产业基础设施任务 [1] - 开发者是生态建设的关键,国产芯片平台需构建友好、易用的开发环境以服务开发者社群 [1] - 海淀区发布《中关村科学城集成电路创芯引领行动计划》,并出台《集成电路流片补贴申报指南》,对符合条件的企业给予年度最高1500万元的研发支持 [3] - 海淀区通过全方位政策体系支撑创新循环,目前已集聚集成电路企业超240家,拥有上市企业12家 [3]
周末重磅!摩尔线程 首次公开
上海证券报· 2025-12-20 21:24
核心观点 - 摩尔线程在首届MUSA开发者大会上,首次公开了其全功能GPU技术路线图,并发布了包括新一代GPU架构“花港”、夸娥万卡智算集群、AI算力本等一系列技术与产品进展,标志着公司已构建起贯穿“芯-边-端-云”的完整自主技术栈,并致力于加速构建国产计算产业生态 [2][3][11] 新一代GPU架构与芯片路线图 - 公司宣布其自主研发的元计算统一架构MUSA升级至5.0版本,在全栈统一性、效能与生态开放性上取得关键突破 [3] - 基于MUSA发布了新一代GPU架构“花港”,基于新一代指令集,支持FP4到FP64的全精度计算,算力密度提升50%,能效提升10倍,可支持十万卡以上规模智算集群 [3] - 基于“花港”架构,公布了未来两款芯片技术路线:“华山”专注AI训推一体与超大规模智能计算,支持从FP4至FP64的全精度计算,为万卡级智算集群提供算力支撑 [3] - “庐山”专攻高性能图形渲染,其AI计算性能提升64倍,几何处理性能提升16倍,光线追踪性能提升50倍,并显著增强纹理填充、原子访存能力及显存容量,集成AI生成式渲染等新技术 [5] 夸娥万卡智算集群与算力突破 - 发布了夸娥万卡智算集群,具备全精度、全功能通用计算能力,在万卡规模下实现高效稳定的AI训练与推理 [7] - 该集群浮点运算能力达到10Exa-Flops,训练算力利用率在Dense大模型上达60%,在MOE大模型上达40%,有效训练时间占比超过90%,训练线性扩展效率达95% [7] - 推理侧,联合硅基流动在DeepSeek-R1 671B全量模型上实现单卡推理性能突破,MTT S5000单卡Prefill吞吐突破4000tokens/s、Decode吞吐突破1000tokens/s [7] - 训练侧,基于原生FP8能力完整复现顶尖大模型训练流程,Flash Attention算力利用率超95%,并突破FP8累加精度等关键技术瓶颈 [7] - 发布了MTT C256超节点的架构规划,采用计算与交换一体化的高密设计,旨在系统性提升万卡集群的训练效能与推理能力 [7] 图形计算与具身智能布局 - 图形产品已全面支持DirectX 12、OpenGL 4.6、Vulkan 1.3等主流API,并将完整支持DirectX 12 Ultimate,与国产主流CPU及操作系统完成了全栈适配 [8] - 在核心渲染技术上取得两项关键突破:基于“花港”架构的硬件光线追踪加速引擎,可支持DirectX Raytracing;推出全自研的AI生成式渲染技术MTAGR 1.0 [8] - 发布了MT Lambda具身智能仿真训练平台,深度融合物理、渲染与AI三大引擎,构建开发、仿真、训练的统一环境 [8] - 推出基于智能SoC芯片“长江”、AI模组MTT E300和夸娥智算集群的MT Robot具身智能解决方案 [8] - 公司计划于2026年第一季度开源关键仿真加速组件Mujoco-warp-MUSA [9] - MUSA生态还与合作伙伴在科学智能、量子科技、AI for 6G等前沿交叉领域展开探索 [10] 生态建设与开发者体系 - 公司认为生态体系是GPU行业的核心护城河与价值所在,致力于以开放创新深化与生态伙伴的协同,共同构建国产计算产业生态 [11] - 以摩尔学院为平台,已构建产教融合的开发者成长体系,目前汇聚近20万名开发者与学习者 [11] - 通过“国产计算生态与AI教育共建行动”将前沿技术与产业实践带入全国200多所高校,吸引超10万名学子参与 [11] 端侧计算产品 - 发布了搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK,提供50TOPS的端侧AI算力,实现了专业AI开发的“开箱即用”,并打破了Linux开发、Windows办公与Android应用之间的场景壁垒 [12] - 预告了基于“长江”SoC打造的迷你型计算设备MTT AICube,进一步丰富端侧计算产品形态 [12]
摩尔线程,展现最新成果
财联社· 2025-12-20 19:18
核心观点 - 公司举办首届开发者大会,发布历时五年研发的新一代全功能GPU架构“花港”,并基于此公布了两款核心芯片、万卡智算集群及个人AI终端产品,展示了从芯片到软件再到系统与终端的全栈技术布局,战略意图从单一硬件供应商转向平台级算力基础设施商 [1][17] 技术架构与芯片发布 - 发布新一代全功能GPU架构“花港”,采用新一代指令集,算力密度较上一代提升50%,能效提升10倍,支持从FP4到FP64全精度,集成第一代AI生成式渲染架构和第二代光线追踪硬件加速引擎,计划明年量产 [2] - 基于“花港”架构公布两款核心芯片规划:“华山”芯片主打AI训推一体与超智融合,内置新一代异步编程模型,拥有全精度MMA及MTFP8/6/4混合低精度计算技术 [3][4] - “庐山”芯片专攻高性能图形渲染,优化任务分配与平衡,其AI计算性能较前代提升64倍,几何处理性能提升16倍,完整支持DirectX 12 Ultimate [4] 智算系统与性能展示 - 发布“夸娥”万卡智算集群,浮点运算能力达10Exa-Flops,在Dense大模型上的训练算力利用率达60%,在MOE大模型上为40%,有效训练时间占比超过90% [6] - 展示与硅基流动合作的推理性能成果:在DeepSeek R1 671B全量模型上,MTT S5000单卡的Prefill吞吐量突破4000 tokens/s,Decode吞吐量突破1000 tokens/s [7] - 分享面向下一代智算中心的MTT C256超节点架构规划,旨在通过高密硬件设计提升集群能效 [8] 软件生态与开发者工具 - 自研MUSA架构迎来全栈软件升级至5.0版本,核心计算库muDNN的GEMM/FlashAttention效率超过98%,通信效率达97% [9] - 明确开源计划,将逐步向开发者社区开放计算加速库、通信库及系统管理框架的核心组件 [10] - 计划推出兼容跨代GPU指令架构的中间语言MTX,以及面向渲染与AI融合计算的编程语言muLang,以降低开发者适配门槛 [11] 终端产品与市场拓展 - 正式进军个人智算终端硬件领域,发布首款AI算力本MTT AIBOOK,售价9999元(32GB+1TB版本),预计2026年1月10日开售 [12][13] - MTT AIBOOK搭载自研智能SoC芯片“长江”,集成高性能全大核CPU及全功能GPU,异构AI算力达50TOPS,内置AI智能体和2D数字人“小麦”,支持0.5秒生成数字人形象,预装Qwen3-8B大模型,支持多操作系统,意图将MUSA生态从云端下沉至开发者桌面端 [14] 行业背景与战略定位 - 行业正处于从追求参数规模向追求推理效能和生态落地的转型期 [17] - 发展“主权AI”的核心在于算力自主、算法自强与生态自立,构建国产十万卡级别智算系统是必须完成的产业基础设施任务,且需构建易用的开发环境以留住开发者社群 [15] - 公司通过展示的全栈体系,反映出其试图摆脱单一硬件供应商身份,转向平台级算力基础设施商的战略意图 [17] 资本市场表现 - 公司股价近期波动明显,12月19日收报664.10元/股,跌幅5.9%,相较于12月11日高点累计跌幅达29.4%,但相较于发行价涨幅仍超过481%,总市值维持在3121.46亿元 [16]
摩尔线程公布新GPU架构和万卡集群
观察者网· 2025-12-20 15:27
公司核心产品与技术发布 - 摩尔线程召开首届MUSA开发者大会,公布新一代全功能GPU架构“花港”,支持FP4到FP64全精度计算,密度提升50%,效能提升10倍[1][7] - 基于“花港”架构推出两款芯片:AI训推一体芯片“华山”与专攻高性能图形渲染的芯片“庐山”[1][7] - 发布“夸娥”万卡智算集群,浮点运算能力达10 Exa-Flops,训练算力利用率在Dense大模型上达60%,在MOE大模型上达40%,有效训练时间占比超90%,训练线性扩展效率达95%[9] - 公司联合硅基流动在DeepSeek R1 671B全量模型上实现性能突破,MTT S5000单卡Prefill吞吐突破4000 tokens/s、Decode吞吐突破1000 tokens/s[12] - 公布面向下一代超大规模智算中心的MTT C256超节点架构规划,以及搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK[12] - 在图形计算领域,产品已全面支持DirectX 12、OpenGL 4.6、Vulkan 1.3等主流API,并与国产主流CPU及操作系统完成全栈适配,即将完整支持DirectX 12 Ultimate[15] - 自2022年1月以来,在3DMark Fire Strike测试中,MTT S80显卡成绩提升至3.4倍,并已追踪超过550款游戏,优化90款游戏体验[16] 公司战略与生态建设 - 公司自主研发MUSA(元计算统一计算架构),覆盖从芯片到软件的全栈技术体系[7] - 公司创始人指出,生态体系是GPU行业的核心护城河与价值所在,公司将依托MUSA架构加大研发投入,深化与生态伙伴协同,构建国产计算产业生态[23] - 公司在具身智能、科学智能、AI for 6G、硬件级光线追踪加速与自研AI生成式渲染技术等领域进行布局[12][14] 行业背景与专家观点 - 中国工程院院士郑纬民指出,发展“主权AI”是提升未来国家竞争力的关键,核心在于实现“算力自主、算法自强、生态自立”[2] - 专家认为,国产计算显卡与国外主流产品性能差距持续缩小,构建国产万卡乃至十万卡级别超大规模智算系统是必须完成的产业基础设施任务[2] - 专家强调,开发者是生态建设关键,国产芯片平台必须构建友好、易用的开发环境以服务开发者社群[2] - 从主权AI角度,国产万卡/十万卡系统是本土大模型与行业模型的“母机”与基座[5] 市场竞争格局 - 2024年中国智能计算芯片市场前两大参与者(英伟达、华为海思)合计占据94.4%市场份额,其余市场分散,无主要参与者份额超过1.0%[20] - 2024年中国GPGPU市场前两大参与者合计占有98.0%市场份额,市场共有不足10家规模化参与者[20] - 包括摩尔线程在内的几家已上市或拟上市GPU创业企业普遍处于亏损状态[19] 公司财务与市场表现 - 摩尔线程于2024年12月5日登陆科创板,市值一度突破4000亿元,目前回落至3100亿元左右[17] - 2024年1-9月,公司营收为7.85亿元,归属于母公司所有者的净利润为-7.24亿元[17] - 公司预计2025年归母净利润为-11.68亿元至-7.30亿元[17]