Workflow
MoE(混合专家)架构
icon
搜索文档
老黄开年演讲「含华量」爆表,直接拿DeepSeek、Kimi验货下一代芯片
36氪· 2026-01-07 09:35
行业趋势:中国AI模型在全球舞台崛起 - 在2026年CES英伟达主旨演讲中,中国大模型Kimi K2、DeepSeek V3.2及Qwen位列全球开源大模型前列,性能逼近闭源模型,标志着中国AI的高光时刻[1] - 在权威评测中,中国开源模型表现强势,例如在Nathan Lambert与Florian Brand发布的「2025年度开源模型回顾」中,DeepSeek、Qwen和Kimi包揽Top 3[26] - 中国AI模型的国际影响力与落地应用加速,例如OpenAI前CTO的新产品Thinker官宣接入Kimi K2 Thinking,其技术实力正被全球核心圈层接纳[24] 技术架构:MoE(混合专家)成为主流 - 自2025年以来,超过60%的开源AI采用了MoE架构,该架构自2023年初推动LLM智能水平提升近70倍[16] - 在权威机构Artificial Analysis排行榜上,最智能的TOP 10开源模型全部采用MoE结构[16] - DeepSeek-R1、Qwen3和Kimi K2代表MoE路线下顶级规模的尝试,仅需激活少量参数,大幅减少计算量和HBM显存带宽压力[2] 性能突破:推理性能与成本实现指数级优化 - 在英伟达下一代Rubin架构暴力加成下,Kimi K2 Thinking推理吞吐量直接飙升10倍,token成本暴降到原来的1/10[4] - 在SemiAnalysis InferenceMax测试中,DeepSeek-R1将每百万token的成本降低10倍以上,Mistral Large 3同样获得十倍加速[12] - 实测显示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍[9],这种降本增效宣告AI推理即将进入真正的「平价时代」[6] 模型能力:中国模型展现独特技术优势 - Kimi K2 Thinking在Anthropic的严苛行为基准测试中,凭借极低的被误导率,摘得「表现最佳的非美国模型」桂冠[21] - Kimi K2 Thinking支持「数百步稳定工具调用」,并通过开源模型实现「交错思考」,标志着模型逻辑链条的进一步成熟[34] - 中国模型正从追求基准测试高分转向提升实际体验,例如Qwen从「冲榜」闻名进化为优质模型,K2 Thinking原生采用4bit精度以更高效支持长序列RL扩展[32] 竞争格局:开源模型对闭源巨头形成压力 - 中国实验室正以惊人速度发布模型,大幅压缩了最强闭源模型与开源之间的代差,「更早发布」成为一种巨大的先发优势[31] - 开源模型的激增让美国闭源实验室倍感压力,仅靠基准测试分数已无法解释「为什么付费更好」[35] - 中国模型在全球市场的「心智份额」正切走越来越大的一块蛋糕,DeepSeek、Qwen和Kimi已成为东方技术实力的代表品牌[33][35] 算力需求:模型规模与计算需求持续暴涨 - 在计算需求暴涨的背景下,480B的Qwen3和1TB的Kimi K2成为代表性模型,验证了参数规模每年以十倍量级scaling[6] - 如此巨大规模的MoE模型单GPU无法部署,而英伟达GB200 NVL72能破解这一难题[16] - DeepSeek R1和Kimi K2 Thinking的实测结果,证明了英伟达Blackwell超算性能的强大[19]
AI大模型独角兽招股书深度拆解:MiniMax to C,智谱 to B
华尔街见闻· 2025-12-22 11:57
事件概览 - 中国大模型领域两家独角兽公司智谱AI与MiniMax在48小时内相继向港交所递交招股书,展示了截然不同的商业化路径与技术底色 [1] 商业模式与收入结构 MiniMax:C端驱动,押注AI原生超级应用 - 商业模式更接近互联网产品公司,核心为“AI原生产品”,该板块收入从2023年的75.8万美元飙升至2025年前9个月的3802万美元,占总收入的71.1% [3][4] - 核心产品Talkie/星野通过用户与虚拟角色深度互动构建粘性,变现模式包括订阅、虚拟物品内购及在线营销服务 [5] - 用户规模井喷,平均月活跃用户从2023年的310万增长至2025年9月的2760万,累计服务超2亿用户;付费用户数在2025年前9个月达177.16万,每位付费用户平均支出从2023年的6美元提升至15美元 [4][5] - 同时,B端企业服务业务(开放平台)在2025年前9个月贡献了28.9%的收入,且毛利率高达69.4%,显示强大的技术溢价能力 [4][7][18] - 公司高度全球化,2025年前9个月来自中国内地的收入仅占26.9%,美国市场占20.4%,其他海外地区占比较高 [30] 智谱AI:B端为王,深耕本地化部署 - 商业模式为典型的企业级服务,围绕MaaS平台构建商业版图 [8][9] - 收入高度依赖本地化(私有化)部署,截至2025年6月30日,该部分收入达1.62亿元人民币,占总收入比例高达84.8% [10][11] - 主要服务于对数据安全和私有化有刚性需求的央国企及大型机构,截至2025年6月30日已为超过8000家机构客户提供服务 [11] - 公司主要聚焦国内市场,2025年上半年海外收入(主要为东南亚)占比为11.1% [11][30] 技术路线与产品 MiniMax:强调全模态能力 - 模型矩阵涵盖文本、语音、视频及音乐,其视频生成模型Hailuo-02在独立测评中位居全球前列 [13] - 语音模型Speech-02被公认为全球顶尖,为数字阅读与IP开发巨头(如阅文集团)等提供底层技术支持,是大量有声书、播客AI伴读/配音功能的提供商 [7] - 采用专有的MoE架构及线性注意力机制,旨在降低推理成本,支撑C端大规模应用 [13] 智谱AI:强调学术底蕴与GLM框架 - 源自清华大学知识工程实验室,2020年启动GLM预训练框架开发 [15] - 技术亮点包括GLM-4.5基座模型及AutoGLM智能体,后者能模拟人类操作设备,实现从“对话”到“执行”的跨越 [15] - GLM系列模型在开源社区累计下载量超4500万次 [11] - 技术定位强调“安全”与“可控”,与服务大型企业和公共部门的定位高度契合 [15] 财务表现与盈利能力 MiniMax:C端变现提速,毛利率显著改善 - 整体毛利率从2023年的-24.7%改善至2024年的12.2%,并进一步提升至2025年前9个月的23.3% [18] - B端“开放平台及其他企业服务”业务在2025年前9个月毛利率高达69.4%,远超行业平均水平 [18] - 营收增长迅猛,从2023年的3460万美元增长至2025年前三季度(截至9月30日)的5344万美元 [18] 智谱AI:B端稳健增长,但云端业务承压 - 收入从2022年的5741万元人民币增长至2024年的3.12亿元人民币,复合年增长率超过130%;2025年上半年营收为1.91亿元人民币 [20] - 整体毛利率保持在50%的较高水平,主要得益于本地化部署业务高达59.1%的毛利率 [20] - 云端部署业务毛利率从2022年的76.1%大幅下滑至2025年上半年的-0.4%,出现毛利亏损,主要由于顺应市场趋势降低服务价格,反映API市场价格战激烈 [20] 研发投入与经营效率 智谱AI:超饱和研发投入 - 2025年上半年,营收1.91亿元人民币,同期研发开支高达15.95亿元人民币,研发费用率高达835.4% [25][26] - 研发投入主要用于算力服务费及研发人员薪酬,显示追赶顶尖模型能力的决心 [25] MiniMax:研发效率提升,费用率快速收敛 - 2023年研发费用率超过2000%,但到2025年前9个月已降至337.4%(研发支出1.8亿美元 vs 营收0.53亿美元) [27][28] - 随着C端产品放量,公司正逐步摊薄巨额研发成本,经营杠杆效应开始显现 [27] 股东背景 MiniMax:获互联网及游戏巨头支持 - 创始人闫俊杰博士通过投票权架构控制公司,股东包括阿里(持股约13.66%)、腾讯(持股约2.58%)及游戏公司米哈游(持股超5%) [32] 智谱AI:股东结构多元,兼具市场与国资背景 - 股东包括蚂蚁集团、腾讯、美团、小米等互联网巨头,以及社保基金中关村创新基金、北京市人工智能产业投资基金等国资平台,还有高瓴、君联资本等老牌VC [33] 资金状况与行业意义 - MiniMax账上现金及金融资产合计约10亿美元,智谱AI现金及现金等价物达25.5亿元人民币,短期内均有充足资金支持技术长跑 [34] - 两家公司递表标志着中国AI行业从“百模大战”进入商业化落地的深水区,向资本市场呈现了“AI原生超级应用”与“AI新基建”两种不同的商业叙事 [34]