Gemini 3.0 Pro
搜索文档
霸屏海外的神秘模型Pony Alpha身份曝光:就是智谱(02513)GLM-5
智通财经网· 2026-02-12 08:06
公司动态与产品发布 - 智谱公司旗下模型GLM-5的测试版本,正是近期在海外开发者社区引发轰动的匿名模型"Pony Alpha" [1] - GLM-5在多项权威编程和Agent基准测试中取得了当前开源模型的最高成绩,例如在SWE-bench-Verified和Terminal Bench 2.0中分别获得77.8和56.2的开源模型最高分数 [1] - 该模型在匿名测试期间连续多日占据OpenRouter平台热门模型,并被用户评价为"最强匿名模型"之一 [1] 技术性能与市场定位 - GLM-5的性能表现超过Gemini 3.0 Pro,在真实编程场景的开发者体感中,其表现已逼近目前公认的顶级闭源模型Claude Opus 4.5 [1] - 在高端编码场景,开源阵营首次拥有了与顶尖玩家正面抗衡的实力 [1] - GLM-5采用与DeepSeek同源的稀疏注意力机制,以极低的部署和调用成本,提供了接近的系统工程能力 [1] 产品价值与市场机会 - GLM-5为需要高性能、高可靠性AI开发助手但又注重数据隐私和成本控制的开发者与企业,提供了前所未有的开源解决方案 [1]
Ricursive获3亿美元融资,将芯片设计周期从几年缩短到几天
36氪· 2026-02-11 21:09
文章核心观点 - AI发展的关键瓶颈在于高昂的算力硬件成本,而传统芯片设计流程缓慢且昂贵,严重制约了创新[1][3] - Ricursive Intelligence公司旨在利用AI技术颠覆传统芯片设计流程,通过大幅缩短开发周期和降低成本,实现定制化芯片的普及,从而释放AI行业的创新能力[1][4][13] - 该公司由AlphaChip的核心设计者创立,其技术已成功应用于多代Google TPU,并计划通过“AI赋能芯片设计,芯片设计反哺AI”的递归循环,推动行业进入“无设计”模式[7][10][12] 行业痛点与现状 - **设计周期漫长**:成熟制程芯片设计需12-24个月,5nm或3nm等前沿制程需18-36个月[3] - **设计成本高昂**:7nm芯片平均成本为2-2.5亿美元,5nm为4.5-5亿美元,3nm则高达6-6.5亿美元,其中50-70%为人力成本,5-15%用于EDA工具[3] - **延迟代价巨大**:以NVIDIA Blackwell芯片为例,数月的延迟可能在2025年造成超过100亿美元的收入损失[3] - **市场高度集中**:当前芯片设计市场由Cadence和Synopsys主导,两家公司年收入均达50-60亿美元,市值约在900-1000亿美元之间[12] Ricursive Intelligence公司概况 - **创立与团队**:公司由AlphaChip核心设计者Anna Goldie和Azalia Mirhoseini于2025年12月初创立,团队约10人,成员来自Google DeepMind、Anthropic、Apple和Cadence等顶尖公司[2][9] - **融资情况**:以7.5亿美元估值完成3500万美元种子轮融资,由Sequoia Capital领投[2];近期完成由Lightspeed Venture Partners领投的3亿美元A轮融资,投后估值达40亿美元,参投方包括DST Global、NVentures、Felicis Ventures等[2] - **技术起源**:技术源于2018年Google Brain的“登月计划”,专注于利用AI进行芯片布局规划,并与TPU团队紧密合作,其成果AlphaChip已应用于从TPU v5e及之后的多代TPU中[6][7][9] 核心技术:AlphaChip与AI设计 - **技术原理**:AlphaChip是一个基于强化学习的AI系统,能在六小时内完成部分半导体组件的设计,而传统方法可能需要数年[1][14] - **应用成效**:已参与Google TPU过去4代的设计,并被联发科等外部半导体公司采用,在TPU中应用的芯片区块越来越多[1][9] - **设计优势**:AI设计有时能产生超越人类经验的“有机感”布局,相比规整的人类设计,能减少线长、降低功耗和时序违例[9] - **数据要求**:构建此类AI智能体最重要的是搭建环境和设定奖励信号,可以使用合成数据[14] 公司愿景与发展阶段 - **递归循环理念**:公司名“Ricursive”体现了“AI赋能芯片设计,芯片设计反哺AI”的递归循环,即用AI设计芯片,再用新芯片训练更好的AI[10] - **三阶段规划**: - 第一阶段:攻克关键瓶颈,将设计流程显著缩短至数周[11] - 第二阶段:实现端到端设计,给定工作负载即可生成送交制造的最终文件(GDSII)[11] - 第三阶段:垂直整合,构建自己的芯片并训练自己的模型,完成递归循环[11] - **终极愿景**:将当前的“无晶圆厂”模式推进到“无设计”模式,将想法直接转化为可供制造的设计方案,外包整个芯片设计流程[12] 潜在行业影响 - **释放AI创新能力**:若定制芯片设计成本大幅降低、时间缩短至数天,将极大释放AI行业在模型训练、产品推广及硬件终端(如机器人、可穿戴设备)方面的创新能力[13] - **引发定制芯片爆发**:设计成本降低将使更多公司(涉及AI硬件、机器人、自动驾驶、太空探索等领域)能够负担定制芯片,可能引发定制化芯片的“寒武纪大爆发”[11] - **颠覆现有格局**:公司旨在将芯片设计全流程自动化,这不仅能颠覆Cadence和Synopsys主导的现有市场,还可能解锁人类未曾探索过的新颖芯片设计,推动硬件创新浪潮[12]
国海证券晨会纪要-20260129
国海证券· 2026-01-29 09:05
核心观点 - 晨会纪要包含四份研究报告摘要 分别覆盖动力新科公司深度研究、宏观策略周报、金工深度研究以及AI算力事件点评 [2] - 报告核心观点包括:动力新科在剥离亏损业务后轻装上阵 AIDC电源用发动机业务有望驱动增长[3] 宏观资金面均衡偏松但ETF大幅净流出[9] 委托挂单手数蕴含选股信息并可构建有效因子[11] AI驱动算力需求激增 头部云厂商相继涨价 算力产业链正经历通胀[14][15][16] 动力新科公司深度研究 - 公司未来核心增长潜力在于AIDC电源用兆瓦级发动机、拓展上汽体系外客户、切入新能源业务以及聚焦国际化[3] - 动力新科是国内少数具备大功率大排量中高速内燃机制造能力的厂商之一 拥有菱重发动机与上柴动力双品牌覆盖[3][4] - AIDC电源用发动机行业壁垒高 需满足高功率和可连续满负载运行等条件 国内具备相关能力的厂商包括潍柴动力、玉柴机器与动力新科[4] - 菱重发动机2025年上半年净利润约1亿元 2026年产量或持续快速增长[4] - 并表的上柴动力兆瓦级vk16已投产 2026年销量或明显增长 且单台盈利能力较强[4] - 2025年12月公司完成上汽红岩重整出表 持股比例从100%降至14.66% 该业务不再纳入合并报表[5] - 出表带来33.67-34.67亿元一次性股权处置收益 预计2025年归母净利润扭亏为盈[5] - 剥离整车业务后 合并资产负债率预计较此前大幅下降并靠拢行业合理区间 母公司ROE预计呈现向上拐点[5] - 2025年新领导班子上任 提出“十五五”战略目标 计划在2025年基础上实现销量与收入双倍增长 核心聚焦新能源与国际化[6] - 新业务方向包括动力电池与电驱桥 相关产品偏向系统集成与解决方案属性 有望凭借更高毛利率潜力成为新增长引擎[6] - 公司将加大体外配套比例 提升非上汽体系市场渗透 优化产品结构与整体毛利率[6] - 预计公司2025-2027年实现营业收入60.9、67.7、76.9亿元 同比增速-6%、+11%、+14%[7] - 预计2025-2027年实现归母净利润27.9、3.0、4.6亿元 同比增速+239%、-89%、+51%[7] - 预计2025-2027年EPS分别为2.01、0.22、0.33元 对应PE估值分别为4.5、41.6、27.5倍[7] 宏观策略周报 - 2026年1月19日至1月23日 宏观资金面均衡偏松 央行通过7天逆回购净投放2295亿元[9] - 资金价格方面 短端利率与长端利率均下行 且长端下行幅度大于短端 期限利差走窄[9] - 权益基金发行显著回升 两融余额仍在高位震荡[9] - 融资净流入较多的行业为有色金属、非银金融等 融资净流出较多的行业有电子、计算机等[9] - 股票ETF净流出3331.17亿元[9] - 宽基ETF资金主要流入中证2000、科创200等指数 净流出的宽基指数主要有中证1000、沪深300[9] - 行业主题ETF中细分化工、电网设备主题等板块净流入较多 净流出较多的指数为科创AI、卫星通信[9] - 策略风格方面 红利低波资金净流入较多 净流出较多的指数为中证红利[9] - 中证A500本周净流出100.81亿元 上周净流出99.28亿元[9] - 股市资金需求端压力缓和 股权融资规模回落至56.81亿元 限售解禁规模小幅回升至595.5亿元 产业资本减持回落至145.08亿元[10] 金工深度研究报告 - 报告挖掘Level2逐笔委托数据挂单手数中的微观结构信息 构建具备选股能力的因子[11] - 挂单手数占比因子具备稳健选股能力 其中 体现机构算法拆单的1手极小单与体现大资金介入的50、100、200手大额挂单占比对股价有显著正向预测作用[11] - 带有“整数偏好”特征、反映散户过度参与的5、10、15手小额挂单占比则对股价构成负向压制[11] - 合成后的委买主要手数占比因子在2015至2025年T1-T6 VWAP RankIC为0.048 多头年化超额收益18.6% 多空年化收益30.6%[11] - 通过识别投资者参与主体构建的活跃度指标能捕获长效稳健Alpha 游资比机构挂单因子在2015-2025年RankIC为-0.032 ICIR为-0.863 多头年化超额收益10.6% 多空年化收益15.2%[12] - 纯机构标的展现出稳健的趋势性上涨潜力 而游资介入仍能提供一定的流动性支撑[12] - 投资者参与主体指标可拓展至时序维度 刻画如寒武纪(机构主导)与新易盛、农业银行及上海建工(散户追涨)等个股的资金流向差异[12][13] - 通过识别AAAA、AABB等4位数异常委托单构建的“游资股票池” 在叠加低波动与低换手逻辑过滤后形成的“游资吸筹组合”年化超额收益8.6%[13] - 引入机器学习因子增强后 年化超额收益提升至14.7% 信息比率改善至1.083[13] - 该策略在市场下行期表现出良好的净值韧性 能够有效捕捉处于低位隐蔽吸筹阶段的标的机会[13] AI算力事件点评 - 2026年1月27日 谷歌宣布自5月1日起上调其数据传输服务价格 北美地区从0.04美元/GB上调至0.08美元/GB 欧洲地区从0.05美元/GB上调至0.08美元/GB 亚洲地区从0.06美元/GB上调至0.085美元/GB[14][15] - 此前 AWS已将其EC2机器学习容量块实例p5e.48xlarge(搭载8颗H200)的每小时单价在多数区域从34.61美元上调约15%至39.80美元 其中美国西部等热门区域价格上涨至近50美元/小时[15] - 本轮云涨价核心驱动为AI训练与推理需求激增下的算力供需趋紧[15] - 腾讯、甲骨文等指出AI推理市场规模远大于训练市场 或将驱动AI云需求持续释放[15] - 微软Azure、阿里云等头部云厂商有望评估调价策略 全球云计算市场或迎来定价重整[15] - 2025年至2026年初 算力产业链正经历一轮通胀 范围覆盖存储、CPU及其他半导体芯片[16] - 存储领域 Trendforce预计2026年一季度DRAM合约价上涨55%-60% NAND合约价上涨33%-38%[16] - CPU方面 受AI挤占产能、代工厂涨价、AI Agent需求拉动 芯片巨头计划将服务器CPU产品价格上调10%-15%[16] - 2026年服务器CPU产能已基本被大型云服务商预售一空[16] - 中微半导指出受严峻供需形势影响 对MCU、Nor flash等产品进行价格上调15%至50%[16] - 产业头部厂商正通过战略投资强化生态协同 例如英伟达向CoreWeave追加投资20亿美元 支持其到2030年前增加超5GW AI基础设施[16] - 英伟达此前承诺在2032年前从CoreWeave采购超过60亿美元的服务[16] - 当前算力链供需失衡尚未见顶 成本压力或进一步向其他环节传导 形成更广泛的产业通胀效应[16] - 2025年头部AI模型厂商密集出新 包括OpenAI的GPT-5.2、Sora 2和Codex 谷歌的Gemini 3.0 Pro、Nano Banana Pro及Veo 3.1 字节的豆包1.8、Seedream 4.0等[17] - 新模型解锁更多应用场景 包括具身智能、智能硬件、巡检安防、短剧制作、漫画生成、PPT设计与海报创作等[17] - 截至2025年10月 全球企业级MaaS服务市场中 OpenAI大模型日均tokens调用量接近70万亿 谷歌大模型日均tokens调用量接近43万亿[17] - 2025年12月 字节跳动旗下豆包大模型超100家客户累计tokens调用量超1万亿 总日均tokens调用量突破50万亿 同比增长超10倍[17] - 报告维持对计算机行业的“推荐”评级[18] - 报告列出重点关注个股 涵盖云计算、CDN/MSP、边缘计算、端侧计算及云链核心上游等多个细分领域[19]
3个AI参加日本高考,谁得分最高?
日经中文网· 2026-01-25 08:33
AI模型在日本大学入学考试中的表现 - 美国OpenAI的最新AI模型在15个主要科目中得分率达到97%,其中9个科目获得满分,表现超过美国谷歌和美国Anthropic的模型(得分率均为91%)[1][3] - 谷歌和Anthropic的模型答题速度最快,约4分钟可完成一个科目,而OpenAI模型的答题时间是前两家公司的2至3倍[1][4] - 所有AI模型均擅长理科科目,但在语文和地理科目上失分较为明显,在英语科目中处理长篇文章和插图选择单词的问题时也存在失分[1][4] AI模型的具体科目得分情况 - OpenAI模型在数学ⅠA、数学ⅡBC、化学、物理等理科科目上表现优异,多个科目获得满分[3] - 在文科科目上,OpenAI的语文得分为90%,世界史和日本史得分均为97%[4] - 谷歌模型在数学ⅠA科目获得满分,数学ⅡBC得分为94%,物理得分为81%,化学得分为90%[4] AI模型的性能进步与行业应用 - OpenAI大模型的考试得分率呈现快速提升,从2024年的66%上升至2025年的91%,并在2026年达到97%[3] - AI已具备顶尖名校入学水平的智能,显示出承担广泛事务性工作的潜力[1] - 行业专家指出,不同AI模型有各自擅长的领域,应按照模型特性进行区分使用[5]
AI“参加”日本高考获佳绩
新华社· 2026-01-20 19:08
AI模型在日本大学入学统一考试中的表现 - 美国开放人工智能研究中心(OpenAI)的GPT-5.2 Thinking模型在15个主要科目测试中获得9科满分,平均得分96.9 [1] - 谷歌的Gemini 3.0 Pro模型在相同测试中平均得分91.4 [1] - 预计2026年日本高考考生在15个主要科目的平均得分为58.1,显著低于领先AI模型的得分 [1] AI模型的能力演进与科目表现差异 - OpenAI模型在2024年日本高考测试中平均得分为66,2025年上升至91,显示其能力快速提升 [1] - 参与测试的最新AI模型均擅长数学、物理、化学、生物等科目 [1] - AI模型在日语、地理科目中失分较多,例如在涉及世界地图等问题时会答错,表明其识别不规则图形的能力仍有欠缺 [1]
DeepSeek论文上新!下一代大模型实现“记忆分离”,V4不远了?
第一财经资讯· 2026-01-13 11:32
公司技术研究进展 - 公司于1月12日晚发布了一篇与北京大学合作完成的新论文,聚焦大模型的条件记忆模块 [4] - 论文名称为《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》,作者列包含公司创始人梁文锋 [4] - 论文核心观察是,大模型包含需要深度动态计算的组合推理和检索静态知识两种性质完全不同的任务,而现有Transformer架构缺乏原生知识查找机制,导致效率低下 [4] - 为解决该问题,团队引入了条件记忆作为补充的稀疏性维度,并通过Engram条件记忆模块实现,以优化神经计算与静态记忆之间的权衡关系 [4] - 团队发现了U型缩放定律,表明混合稀疏容量分配严格优于纯MoE基准模型 [5] - 尽管记忆模块直观上有助于知识检索,但团队在通用推理、代码和数学领域观察到了更为显著的收益 [5] - 论文本质是对大模型进行“分工优化”,让专门模块处理固定知识和复杂推理,并按最佳比例分配资源,旨在提升模型效率与性能 [6] - 公司在论文结论中认为,条件记忆将成为下一代稀疏大模型中不可或缺的核心建模原语 [1][6] 下一代模型发布预期 - 此前有爆料称公司下一代大模型V4将在春节前后发布,结合近期研究,业内猜测此次论文提出的条件记忆可能就是V4的技术架构路线图 [4][6] - 此前有报道称,公司将于2月发布新一代旗舰模型DeepSeek V4,且内部初步测试表明V4在编程能力上超过了市场上的其他顶级模型 [6] - 报道提及发布计划可能会根据实际情况进行调整,公司目前未对相关消息进行回应 [6] - 自2024年底发布V3模型后,公司下一代旗舰模型一直未出,去年底发布了小更新V3.2版本 [6] - V3.2版本在多个基准测试中超过了OpenAI的GPT-5和Google的Gemini 3.0 Pro [6] - 行业一直在观望公司的旗舰模型,V4的推出或将成为业界关注的焦点 [6]
AI破解500年《纽伦堡编年史》天书,仅用1小时,隐藏惊天真相被揭开
36氪· 2026-01-05 16:40
事件概述 - 谷歌的Gemini 3.0 Pro人工智能模型在1小时内成功破解了《纽伦堡编年史》中一段困扰学者533年的手写注释谜题 [1] - 该注释是1493年出版的世界史巨著《纽伦堡纪事报》页面边缘的四个手绘圆圈,内含密集的拉丁缩写和罗马数字,几个世纪以来学者因字迹残损和高度压缩的缩写而无法解读 [3][4][6] 技术突破细节 - **视觉识别能力**:模型从氧化、老化的扫描图像中,通过分析笔划方向、粗细等细节,识别出“人文主义时期特征的运行草书”,并解读了如“iii^m c lxxx iiii”(3184)等肉眼难辨的符号 [20][22] - **上下文理解与推理**:模型将缩写放回页面正文的完整语境中,将“An xpi”等代号还原为“Anno ante Christi incarnationem”(基督降生前),并理解其与亚伯拉罕生平的关系 [23][25] - **跨学科逻辑重构**:模型结合古文字学、年代学和神学史背景进行推理,发现注释是古代读者为调和《七十士译本》与《希伯来圣经》两种年代计算体系所做的笔记,具体记录了两种体系下“亚伯拉罕出生年份”的差异及对应的公元前换算结果 [9][11][27] 成果与意义 - **具体解读结论**:模型判定四个圆圈构成一张“历法转换表”,左侧为按《七十士译本》计算的亚伯拉罕出生年份AM 3184(换算为2015 BC),右侧为按《希伯来圣经》计算的AM 2040(换算为1915 BC),揭示了两个版本存在100年的系统性偏差 [27][28] - **效率与成本**:整个破解过程耗时不超过1小时,所需算力成本极低 [1][28] - **行业示范效应**:此次成功为破解其他历史难题(如《伏尼契手稿》、《埃特鲁里亚文文献》、玛雅抄本、《死海古卷》等)提供了可能性,展示了AI在需要大规模检索与长链条推理的人文历史研究中的颠覆性潜力 [12][14][16][18][19] 能力体现 - **多模态与综合推理**:模型展现了强大的视觉理解能力,能阅读500年前的手写缩写速记,结合印刷页面内容进行推演,并整合所有信息得出连贯理解,整个过程无需人类协助 [3] - **逻辑共鸣与历史语境还原**:AI不仅破解文字,更能捕捉并遵循几百年前作者的逻辑,完成跨历史语境的严谨推理 [11][28]
我的2025年度AI大盘点 - 前路已明。
数字生命卡兹克· 2025-12-31 09:21
年度大模型 - **年度写作大模型为GPT-5.2 Thinking**,该模型在指令遵循、风格迁移和世界知识方面表现极佳,超越了Gemini 2.5 Pro和GPT-4.5 [2] - **年度Coding大模型为Gemini 3.0 Pro**,其超强的前端能力和审美,能够帮助用户快速实现创意灵感 [4][7][8] - **年度绘图大模型为Nano Banana**,该模型掀起了远超GPT-4o的潮流和热度,成为AI绘图领域分水岭级别的模型,并体现了原生多模态的优势 [10][14][15] - **年度音乐大模型为Suno V5**,该模型是2025年AI音乐领域的绝对王者,将领域天花板拉高了数个级别,并在B站等平台引发了大量二创视频的井喷 [16][18] - **年度声音大模型为MiniMax Speech 2.0**,该模型在2025年5月15日发布,首次在多项指标上超越11Labs,实现了逼近真人级别的情感表达 [19][22][23] - **年度视频大模型为Sora2**,该模型以其高度真实和趣味性的生成效果,成为2025年最令人印象深刻和破圈的AI视频模型 [24][26] - **年度大模型为DeepSeek R1**,该模型于2025年1月20日发布并开源,其推理效果媲美当时顶级的闭源模型OpenAI o1,而API价格仅为后者的3.7%,奠定了中国在开源模型领域的领军地位 [27][29][30][31] 年度AI产品与功能 - **年度AI编程产品为Claude Code**,该产品能探索本地代码库上下文、修改文件、运行CLI工具,并支持将工作流封装为自定义Skill [43][45] - **年度AI设计产品为Lovart**,该产品是首个设计类垂直Agent,专为设计场景优化,集成了文字编辑、Touch Edit、Mockup等功能,并经常首发最新的绘图和视频模型 [46][47][48] - **年度AI功能为ChatGPT DeepResearch**,该功能可将查找资料的效率提升百倍千倍,能在10到30分钟内搜索全网数据并生成一篇深度研究报告,质量不亚于研究员工作10小时到1周的成果 [49][50][51] - **年度AI应用为Manus**,该应用作为第一个通用Agent,开启了Agent时代,将Agent概念向前推进了一大步,并于2025年被Meta以数十亿美金的价格收购 [55][60][61][62] - **年度AI硬件为Plaude Note Pro**,该硬件开创了能贴在手机背后的AI硬件新品类,具备录音、实时转录、自动总结会议要点等功能,并以百万销量证明了市场需求的真实性 [65][66][68][72]
从谷歌AI体系看应用叙事
2025-12-29 09:04
涉及的行业与公司 * **公司**:谷歌(Alphabet)、OpenAI、Anthropic、阿里、百度、字节跳动、Deepseek、三星、Perplexity * **行业**:人工智能(AI)、大模型、云计算、搜索引擎、消费电子、企业服务、互联网 核心观点与论据 谷歌AI模型的技术优势与进展 * **Gemini 3.0 Pro在多模态与长上下文领先**:支持文本、图片、音频、视频及PDF,上下文窗口达100万token,超越GPT 5.1的40万token和Claude 4.5的20万token,通过动态调整计算资源实现更拟人的慢思考效果[1][2][3] * **视频生成模型VO系列实现音画同步与精确调控**:VO 3.0是首个实现声音和画面原生同步直出的头部模型,VO 3.1新增对已生成视频的精确调控功能,单价为每秒0.4美元,与Sora R接近,分辨率达720P-1,080P[1][4] * **图像生成模型NanoBanana具备实时知识与精细操控**:基于Gemini开发,调用谷歌搜索接入真实世界知识,通过思维链机制理解提示词,具备高分辨率、文字渲染准确、图片精细操控等优势[1][7] * **用户使用时长反超ChatGPT**:截至2025年10月,Gemini APP和网页端单用户单次使用时长达到7.2分钟,超越ChatGPT的6分钟,下载量从年中每月1,500万次增至10月份6,600万次[1][5] 谷歌AI驱动的业务增长与市场布局 * **AI成为核心业务增长新动力**:2025年第三季度谷歌总营收1,023亿美元,其中搜索收入565亿美元,AI overview和AI mode提升了广告变现效率,云业务新增客户数同比增长34%[2][11] * **C端应用场景示范效应显著**:Google Search的AI模式日活人数超过7,500万,内置的AI Overview功能月活用户数超过20亿,大幅提升整体搜索收入[14] * **B端企业服务与硬件生态全面布局**:通过Vertex AI平台提供企业级解决方案,合同金额达1,550亿美元,付费企业用户数突破100万,在安卓生态(如安卓16)和C端硬件(手机、手表)中深度集成AI功能[10][12][14][16][18][23] * **深入垂直行业与合作伙伴**:将客户分为11个主要行业,吸引头部客户,例如三星Galaxy手机部署了Gemini和Imagen模型,三星家庭伴侣机器人也接入了谷歌AI[19][20] 全球及中国AI市场动态 * **AI搜索市场快速增长**:2025年,AI浏览器Perplexity访问量近乎翻倍,国内AI搜索用户量约5亿,日查询需求约20亿次,由阿里夸克、百度AI搜索等主导[2][15] * **国内大模型企业市场爆发**:2025年上半年,国内大模型企业市场总Token使用量日均达10.2万亿,同比增长超三倍,阿里通义、字节豆包及Deepseek调用最多,主要来自互联网和金融行业[2][21] * **国产大模型紧跟迭代,应用场景深化**:国产模型在思考深度、多模态处理及编程性能方面不断迭代,企业应用场景从智能问答(32%)转向价值更高的内容创作与客户服务等领域[22] * **操作系统层面AI化改造成为趋势**:谷歌在安卓16中内置大量Gemini AI功能,字节跳动的豆包手机也在操作系统层面进行了大量AI化改造[16][17] 其他重要内容 * **谷歌AI体系架构**:分为云计算、大模型及原生AI应用三大部分,核心研发部门是DeepMind人工实验室[10][12] * **模型收费与成本**:NanoBanana Pro按Token收费,每百万Token定价120美元,高于Gemini 3.0 Pro文本输出价格,每张图片平均消耗1,200至2000个Token[9] * **技术路径差异**:NanoBanana Pro采用多模态架构和思维链机制模拟物理世界,而GPT-4O基于统计相关性拼接像素图片[8] * **投资方向启示**:基于谷歌示范,创意领域多模态模型、C端硬件AI化、B端企业强付费意愿的AI应用被视为具有较大发展机会的方向[24]
罗福莉执掌小米大模型首秀!定调下一代模型,全新MiMo-V2开源还横扫Agent第一梯队
AI前线· 2025-12-17 16:00
小米大模型战略与MiMo-V2-Flash发布 - 小米在2025年合作伙伴大会上,由新任命的大模型负责人罗福莉首次公开亮相,并发布了新一代开源大模型MiMo-V2-Flash [2][3][4] - 该模型采用MoE(混合专家)架构,总参数规模达3090亿,但每次推理仅激活约150亿参数,旨在实现高速、高频、低成本的推理 [8] - 模型设计目标明确为“要跑得快、跑得久、被高频调用也跑得起”,核心是为Agent(智能体)和真实世界应用场景服务 [8][16] 技术负责人背景 - 大模型负责人罗福莉是行业知名AI技术专家,硕士毕业于北大,曾任职于阿里巴巴达摩院和DeepSeek母公司幻方量化,参与研发DeepSeek-V2等模型 [11][12] - 她于2024年11月加入小米,此次演讲是其入职后的首次公开亮相 [13] 模型设计理念与工程逻辑 - 公司认为当前大语言模型本质上是解码了人类思维在文本空间中的投影,而非真正理解物理世界,因此语言是工具而非终点 [19][20][35] - MiMo-V2-Flash的设计目标不是追求“更聪明”,而是“更好用、更可部署”,其技术选择是被Agent场景需求“倒逼”出来的工程取舍 [21][22] - 模型研发主要围绕三大现实挑战展开:智能体需要高效的代码与工具调用沟通语言、智能体间交互带宽低要求极高推理效率、大模型范式正从预训练转向后训练和强化学习 [25][41] 核心技术特点与性能 - 模型采用Hybrid Attention混合注意力结构(Sliding Window Attention与Full Attention比例约5:1),以兼顾长短文本推理并适配现有推理基础设施 [45] - 深入挖掘多词元预测技术潜力,在预训练和微调阶段引入MTP层以提升模型潜能,在推理阶段使用三层MTP并行,实现约2到2.6倍的推理加速 [24][46][47] - 在单机环境下,模型输出吞吐可达5000到15000 token/s,单请求输出速度达150 token/s,相比不使用MTP速度提升约2-3倍 [24][47] - 在后训练阶段,公司提出了Multi-Teacher On-Policy Distillation范式,以高效、稳定地将多个专家模型能力蒸馏到学生模型中 [47][50] 模型性能对比与评测结果 - 在7项主流评测中,MiMo-V2-Flash在Agent、代码、工具调用和复杂任务执行方面已进入全球开源模型第一梯队,整体表现与DeepSeek-V3.2、Kimi-K2-Thinking基本相当 [27][40] - 在SWE-Bench基准测试中,MiMo-V2-Flash在多语言模式下以71.7%的准确率获得一项第一 [28] - 在推理效率对比上,MiMo-V2-Flash的推理成本略低于DeepSeek-V3.2,但推理速度约为后者的三倍;与综合能力相近的Gemini 2.5 Pro相比,推理速度接近,但成本低约20倍 [40][48] 对AGI发展的观点与未来方向 - 公司认为当前大模型虽能完成复杂任务,但缺乏对物理一致性、时空连续性及因果关系的理解,这是“具身幻觉”的根源 [30][52] - 真正的下一代智能体需从“回答问题”转向“完成任务”,并具备与世界交互的能力,其核心是构建一个统一、动态的世界模型,而非仅增加多模态输入 [31][32][52][53] - 智能不是从文本中“读出来”,而是要在与真实环境的持续交互中“活出来”,AI进化的下一个关键点是发展能够持续交互的物理模型 [33][52] - 公司对开源持积极态度,视其为一种分布式的技术加速机制,是缩短开源与闭源差距、推动AGI普惠化的现实路径 [33] 模型发布与生态 - MiMo-V2-Flash已正式发布并开源,同步开放了模型权重、技术报告和API,方便开发者接入Web Coding、IDE等场景,体验网页也已上线 [50]