Workflow
Gemini 3 Flash
icon
搜索文档
Gemini 3「开眼」像素级操控,谷歌回应DeepSeek-OCR2
36氪· 2026-01-28 19:33
核心观点 - Google DeepMind为Gemini 3 Flash模型推出了名为“Agentic Vision”(智能体视觉)的新能力,该技术通过让模型主动编写并执行Python代码来操纵和分析图像,将视觉理解从被动的“猜测”转变为主动的“深度调查”[1][3][5] 技术原理与架构 - 新能力引入“思考-行动-观察”的闭环流程:模型首先分析用户查询和图像并制定计划,然后生成并执行Python代码来主动操纵图像,最后将变换后的图像追加回上下文窗口以进行更准确的最终推理[3][7][11] - 核心创新在于利用代码执行作为视觉推理工具,将被动的视觉理解转化为主动的智能体过程[5] 性能提升 - Agentic Vision能力使Gemini 3 Flash在各类视觉基准测试中实现了**5%到10%**的性能跨越[6] - 在建筑计划验证平台PlanCheckSolver.com的实际应用中,通过启用该功能迭代检查高分辨率输入,将准确率提高了**5%**[10] 具体应用场景 - **缩放与检查**:模型被训练为在检测到细粒度细节时进行隐式缩放,通过生成代码裁剪和分析图像特定部分来确认是否符合复杂规范,例如检查建筑图纸[10] - **图像标注**:模型可以通过执行代码直接在图像上绘制边界框和标签来辅助推理,例如精确计数图像中的物体数量,确保答案基于像素级理解[13] - **视觉数学与绘图**:模型能够解析高密度表格数据,并编写Python代码执行计算和生成可视化图表,用可验证的代码执行取代概率性猜测,避免多步视觉算术中的幻觉问题[15][16] 产品发布与获取 - Agentic Vision功能已通过Google AI Studio和Vertex AI中的Gemini API提供[18] - 该功能也开始在Gemini应用中推出,用户可通过从模型下拉菜单中选择“Thinking”来访问[18] 技术发展背景与行业竞争 - 该技术的发布与DeepSeek公司发布DeepSeek-OCR2的时间点高度接近,引发行业关于视觉AI技术路线竞争的讨论[21] - 技术路线呈现差异化:DeepSeek-OCR2侧重于通过改进视觉编码器模拟人类的逻辑化阅读注意力机制,而谷歌的Agentic Vision则强调通过代码执行实现与环境的主动交互和验证[22] - 竞争焦点在于重新定义机器视觉,是追求极致的感知能力,还是实现全能的交互与验证能力[23] 未来发展方向 - 谷歌计划在未来更新中,使目前需要显式提示引导的功能(如旋转图像、执行视觉数学)完全隐式化[20] - 公司正在探索为Gemini模型集成更多工具,包括网络和反向图像搜索,以进一步确立其对世界的理解[20] - 计划将此Agentic Vision功能扩展到Gemini 3 Flash以外的其他模型尺寸[20]
计算机行业年度策略报告:AI商业化加速推进,量子科技前景广阔-20260116
国元证券· 2026-01-16 18:14
核心观点 报告认为,2026年计算机行业的核心驱动力在于AI技术的商业化加速与量子科技的广阔前景 [1] AI技术正快速迭代,模型成本下降推动应用普及,中美技术差距逐步缩小,国内企业商业化进展加快 [2] 同时,在政策支持与国际巨头引领下,量子科技正从前沿研究走向产业落地,有望开启新一轮计算革命 [3] 1. 2025年行业回顾与市场表现 - **市场表现位居中游**:2025年,计算机(申万)指数上涨18.24%,跑赢沪深300指数(上涨17.66%),但跑输上证指数(上涨18.41%)、创业板指(上涨49.57%)和科创50指数(上涨35.92%),涨幅在申万行业中排名第14位 [1][11] - **技术创新与资本活跃**:AI技术持续创新,DeepSeek以低成本实现先进性能,推动技术平权与应用落地,token消耗量成倍增长 [1] 摩尔线程、沐曦股份等国产GPU厂商成功上市,智谱、MiniMax等国产大模型厂商于2026年初登陆香港资本市场,AI全栈国产替代持续推进 [1][11] - **财务表现稳健增长**:2025年前三季度,计算机(申万)板块实现营业收入9386.14亿元,同比增长9.19%;实现净利润244.14亿元,同比增长30.37% [16] 板块销售毛利率约为23.26%,净利率为2.60% [19] - **估值处于合理区间**:截至2025年12月31日,剔除负值后,计算机(申万)指数PE TTM为54.70,在申万行业中排名第三 [22] 报告认为当前估值水平较年内高点有所回落,处于合理区间,具备长期投资价值 [26] 2. AI技术迭代与商业化进展 2.1 技术演进趋势 - **模型能力持续突破**:2025年以来,生成式AI在减少幻觉、提升指令遵循能力方面进展显著,正蜕变为可靠的专家助手 [2][28] Scaling Laws持续有效,并向后训练及推理阶段延伸,通过强化学习等技术提升模型解决复杂问题的能力 [31] - **上下文窗口大幅扩展**:顶尖大模型的上下文窗口突破百万token,例如Grok4.1可达200万token,Gemini3 Pro与Claude 4.5 Sonnet达到100万token,有助于实现更高质量的输出 [33] - **多模态架构实现根本演进**:技术从“拼接式多模态”转向“原生多模态”,以Google Gemini系列、OpenAI GPT-5及通义千问Qwen2.5-VL为代表,采用统一的Transformer架构进行端到端深度融合训练 [36][38] - **推理成本快速下降带动需求**:2025年以来,除最新前沿模型外,大模型推理成本出现成倍数下降 [41] 成本下降推动用户执行更复杂任务,通过OpenRouter平台调用的各类模型token消耗量在2025年增长约14倍 [45] 2.2 市场规模与竞争格局 - **全球市场高速增长**:根据IDC数据,2024年全球AI IT总投资规模为3159亿美元,预计到2029年将增至12619亿美元,五年复合增长率为31.9% [51] 其中生成式AI增长尤为迅猛,预计五年复合增长率达56.3%,2029年市场规模将达6071亿美元,占AI市场总投资的48.1% [51] - **中美主导,中国市场增速领先**:中美两国AI市场规模合计占比接近七成 [52] 中国AI核心产业规模已突破9000亿元人民币,IDC预测到2029年中国AI总投资规模将达1114亿美元,五年复合增长率为25.7% [52] 中国生成式AI投资占比将从2024年的18.2%提升至2029年的41.1%,规模超450亿美元 [52] - **大语言模型市场前景广阔**:根据智谱招股书,2024年中国大语言模型市场规模达53亿元,预计2025年将达96亿元(同比增长约81%),2030年将增至1011亿元,2024-2030年复合年增长率为63.5% [53] - **中美技术差距缩小**:随着DeepSeek R1、Qwen3等国产优秀模型发布,中美AI差距从几年缩短至几个月 [54] 在Artificial Analysis Intelligence Index等基准测试中,国产模型如Kimi K2 Thinking、DeepSeek v3.2等已排名靠前 [60] 2.3 海外巨头发展动态 - **资本开支持续扩大**:美国科技巨头持续加大AI投入,根据Artificial Analysis报告,2025年以来Amazon、Google、Meta、Microsoft和Oracle的资本开支总和逐季度快速增长 [62] OpenAI已承诺投入约1.4万亿美元用于基础设施建设 [65] - **商业化收入快速增长**:随着模型性能提升与推理成本下降,海外AI巨头年化收入呈现快速增长趋势,根据epoch.ai数据,OpenAI年化收入即将突破200亿美元(较年初增长约4倍),Anthropic年化收入约80亿美元(较年初增长约7倍) [67] - **谷歌(Google)全栈布局**:谷歌以Gemini系列为核心打造全栈AI战略,具备从底层TPU芯片到上层应用的高度一体化能力 [71] 2025年12月发布的Gemini 3 Flash模型,以更低成本实现前沿性能,其输出价格仅为Claude Sonnet 4.5的20%、GPT-5.2的21% [74] Gemini APP月活已达6.5亿 [77] - **OpenAI平台化转型**:OpenAI正从AI助手向“AI云”平台转型,构建一整套AI交互系统并逐步开放接口 [78] 2025年发布了GPT-5系列及GPT-5.2系列模型,其中GPT-5.2 Pro在GDPval基准测试中,在74.1%的任务中表现超越或持平人类专家 [83] 同时推出群聊、即时结账等新功能,向生态平台演进 [79] 2.4 国内领先企业进展 - **智谱(Zhipu AI)**:作为中国领先的独立通用大模型开发商,2024年实现营业收入3.12亿元 [87] 其旗舰模型GLM-4.5在多项基准测试中全球排名第三、中国第一 [90] 公司模型已支持超过8000家机构客户 [87] - **深度求索(DeepSeek)**:2025年模型能力快速迭代,从DeepSeek-R1演进到DeepSeek-V3.2系列,在推理能力上比肩国际顶尖模型 [95] DeepSeek-V3.2-Speciale模型在IMO 2025、ICPC World Finals 2025等国际顶级竞赛中斩获金牌,性能媲美Gemini-3.0-Pro [107] - **MiniMax**:公司自主研发了包括文本模型MiniMax M2、视频模型Hailuo 2.3在内的多模态通用大模型 [112] 其AI原生产品已累计为来自超200个国家的逾2.12亿名个人用户及超10万名企业客户提供服务 [118] - **阿里巴巴(Alibaba)**:作为全栈AI提供商,通义大模型开源300余个模型,全球下载量突破6亿次,超100万家客户接入 [119] 旗舰模型Qwen3-Max性能在全球评测中已超越GPT-5等模型,跻身世界前三 [122] 千问APP上线后,月活跃用户数在23天内突破3000万 [125] 3. 量子科技发展前景与产业落地 3.1 行业前景与战略意义 - **被视为下一代计算革命核心**:英特尔前CEO帕特·基辛格指出,量子计算将与经典计算、AI计算共同构成推动科技变革的“三位一体”,并将在未来两年内进入主流市场 [3][128] 量子计算与AI融合,将打开高复杂度计算、材料设计等领域的瓶颈 [131] - **诺贝尔奖认可基础研究价值**:2025年诺贝尔物理学奖颁发给在宏观系统量子效应研究方面做出开创性工作的科学家,体现了该领域的基础科学重要性 [132][133] 3.2 政策支持力度加强 - **纳入国家顶层战略**:2025年10月,《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》将量子科技纳入未来产业布局 [3][140] 2025年《政府工作报告》也强调培育量子科技等未来产业 [140] - **政策聚焦技术攻关与应用落地**:相关政策从科研任务向市场应用延展,覆盖关键技术突破、核心器件构建、产业链完善和应用推广 [140] 例如,2025年6月发布的《计量支撑产业新质生产力发展行动方案(2025-2030年)》聚焦量子计量和量子传感关键技术 [140] 3.3 国际巨头布局与突破 - **微软(Microsoft)**:2025年2月正式推出首款基于拓扑量子比特的Majorana 1原型处理器,该路线旨在提高量子比特的抗噪声能力,为构建大规模容错量子计算奠定基础 [142] - **谷歌(Google)**:在新一代Willow量子芯片上实现了逻辑误差率随物理比特数增加而指数级下降 [146] 其Quantum Echoes算法在65量子比特规模下,运行速度约为当前最佳经典对手的13000倍,首次在硬件上实现“可验证的量子优势” [148] - **IBM**:2025年11月发布最先进的Nighthawk量子处理器(120量子比特),并更新Qiskit软件栈,计划在2026年前实现量子优势,2029年前实现容错量子计算 [149][150] 软件层面新增C API接口,使量子工作负载能嵌入传统高性能计算系统 [151] 3.4 国内企业发展 - **紧跟技术趋势,商业化逐步开启**:国内企业如国仪量子、本源量子等紧跟国际技术趋势,不断突破,并与下游客户紧密合作,推动商业化逐步开启 [3]
AI应用专题:各大厂新模型持续迭代,重视AI应用板块投资机会
国信证券· 2026-01-16 14:42
行业投资评级 - 行业投资评级:优于大市(维持评级) [1] 报告核心观点 - 报告认为应重视AI应用板块投资机会,国内外各大厂新模型持续迭代,推动AI应用在垂直场景落地与融合 [1][2] 国外大厂AI应用落地 - **医疗领域**:OpenAI推出首个垂直行业旗舰产品ChatGPT Health,平台每周健康咨询量超2.3亿人次,其联合来自60个国家/地区的260多名医生开发HealthBench评估框架,提供超60万次反馈以保障专业性 [7][9];Anthropic于2026年1月12日发布符合美国HIPAA法案的Claude for Healthcare,覆盖临床服务、医保结算等四大核心场景 [10][14] - **电商与消费电子**:亚马逊于2026年1月7日推出AI退货看板,为跨境电商卖家提供全链路智能退货管理解决方案 [15][20];谷歌将Gemini模型嵌入智能电视、AI冰箱等多终端,其Gemini 3 Pro模型支持1M tokens上下文,Gemini 3 Flash运行速度达Gemini 2.5 Pro的3倍,成本仅为Pro版的1/4 [22] - **技术底座**:英伟达于2026年1月5日推出全新Vera Rubin AI平台,集成六款芯片,采用第六代NVLink技术,GPU-GPU带宽达3.6 TB/s,NVL72机架总带宽260 TB/s,预计2026下半年上市 [23][27][28];同日推出DLSS 4.5,支持超250款游戏/应用 [28] 国内大厂AI应用落地 - **阿里巴巴**:旗下“蚂蚁阿福”月活用户超1500万,已与8省市卫健委、18省市医保局合作 [32][33];于2025年11月17日推出基于Qwen3系列开源模型的千问APP公测,其Qwen3-235B-A22B模型总参数量2350亿,仅激活220亿参数,4张H20显卡即可部署 [34][36] - **字节跳动**:火山引擎成为2026年央视春晚独家AI云合作伙伴,豆包大模型将深度协同上线AI互动玩法 [37][38] - **Deepseek**:预计2026年2月中旬发布V4旗舰模型,采用独创mHC(流形约束超连接)技术,解码速度较前代提升11.6倍,在Design2Code基准测试中以92.0分刷新纪录 [39] - **腾讯**:于2026年1月5日推出“AI应用及线上工具小程序成长计划”,为新开发者提供6个月免费云开发资源、1亿Token的腾讯混元2.0文生文模型额度及1万张文生图额度 [40][41] - **资本化进展**:智谱于2026年1月8日在港上市,上市前累计募资约83.63亿元,截至1月13日股价上涨56.45%;MiniMax于2026年1月9日在港上市,截至1月13日股价上涨212.12% [2][42][43][44] 产业链梳理 - 报告按应用方向梳理了A股及港股相关标的,涵盖多模态、医疗、游戏、金融、办公、工业等多个领域 [49]
中美AI巨头都在描述哪种AGI叙事?
腾讯研究院· 2026-01-14 16:33
文章核心观点 - 2025年人工智能领域的技术发展标志着“暴力美学”时代的终结,行业从单纯依赖堆砌参数转向深化基础研究,以突破通用人工智能的瓶颈 [5] - 技术进步主要集中在流体推理、长期记忆、空间智能和元学习四大领域,旨在解决模型在即时推理、长期记忆和视觉处理等方面的能力偏科问题 [6] - 通过测试时计算、新型记忆架构、世界模型和元学习等方向的突破,行业在“补短板”方面取得了显著成功,为模型能力的整体提升和未来演进奠定了基础 [7] 流体推理的进化 - **测试时计算的范式革新**:智能被重新定义为不仅是参数的函数,也是时间的函数,以OpenAI o1和DeepSeek R1为代表的模型通过在推理阶段投入更多计算资源进行“慢思考”,实现了推理能力从0到8的质变 [11][12][13] - **强化学习工程优化**:强化学习在提升推理能力中扮演关键角色,其工程可拆分为探索策略、评分系统和参数更新算法三部分,2025年后两部分有明显发展 [15] - **评分系统革新**:基于可验证奖励的强化学习和稀疏奖励指标全面崛起,通过给予模型对错结论作为奖励信号,使其能自发探索推理过程,大幅提升了在数学、代码等领域的能力 [16][17] - **参数更新算法革新**:GPRO算法流行,它通过让模型生成一组答案并计算平均分来替代传统的评论家模型,节省了50%的显存,成为国内各家公司在2025年延展的基础框架 [19] - **强化学习存在天花板**:研究发现强化学习的性能增长符合S型曲线而非幂律,存在性能天花板,但其工程实践(如使用长思维链和大批量大小)已变得更加精确和可预测 [21][23] 记忆与学习 - **记忆能力是短板**:长期记忆存储是通往通用人工智能得分中仍为0的能力分支,缺乏记忆导致模型无法在现实中自我学习,且个性化体验难以实现 [25][26] - **Titans架构突破**:这是一个深度的神经长期记忆模块,能在推理时实时更新自身参数,根据输入信息的“惊奇度”决定存储内容,并引入遗忘机制,从根本上挑战了Transformer的无状态假设 [28][29][30][31] - **Nested Learning架构**:将模型参数按低、中、高频率分层更新,使整个模型参数非冻结,能够持续学习和保有长期记忆,其成本低于传统的监督微调和强化学习方法 [31][33] - **RAG的模型化演进**:检索增强生成系统从静态资料库演变为具备反思与进化能力的系统,例如ReMem引入了“行动-思考-记忆-优化”的全链路处理,能对记忆进行修剪、重组和清理,实现经验复用 [35][36][38] - **克服灾难性遗忘**:通过稀疏记忆微调等方法,模型在注入新知识时仅更新部分参数槽位,在TriviaQA任务中仅导致11%的旧知识遗忘,远优于全量微调的89% [39][40] - **策略蒸馏进步**:在策略蒸馏结合了强化学习的采样和监督微调的密集反馈,让学生模型在自己的“犯错分布”中学习,提供了一种低成本且避免遗忘的参数更新方式 [42] 空间智能与世界模型 - **视觉处理能力提升**:在Sora 2、Veo 3等视频生成模型爆发的推动下,视觉处理能力从2024年的0分提升至2025年的5分,模型开始展现出对物理规律的掌握 [45] - **自监督生成模型的缩放定律**:视觉自回归模型和扩散Transformer被证实遵循特定的缩放定律,例如DiT模型对批量大小和学习率高度敏感,但遵循特定定律后能力可大幅提升 [46][47] - **原生多模态的优势**:研究发现,尽管训练效率较低,但原生多模态架构在参数利用率上可能比晚期融合架构有更高的性能上限 [49] - **VAE的替代方案**:SVG模型通过直接用图像理解模型代替变分自编码器,统一了语义空间,据称训练效率提升6200%,并在多项指标上击败了扩散Transformer和SDXL [50] - **符号主义的世界构建**:以李飞飞团队Marble平台为代表,其基于3D高斯泼溅等技术,从多模态输入生成可探索的3D空间表示,追求更稳定和可控的生成效果 [53][55][56] - **预测即理解的路径**:Meta的V-JEPA 2通过预测被遮挡的视觉内容来学习物理规则的表征,在使用超100万小时视频训练后,模型展现出了反事实预测的能力 [57][58][59] 元学习 - **元学习的核心价值**:赋予模型“学习如何学习”的能力,使其能通过少量样本快速适应新问题,是实现低成本快速适应和应对未知世界的关键 [62][63] - **对上下文学习的重新审视**:有研究认为上下文学习可能只是激活了预训练知识而非真正学习,这与元学习理念不同,但2025年出现了利用改进的上下文框架进行元学习的新尝试 [64][65] - **测试时计算催生隐式元学习**:研究证明模型在推理时的长思维链探索本质上是寻找最优路径,通过优化探索策略(如最小化累积遗憾)可以引导模型学会如何分配算力进行有效思考 [66][69] - **显式元学习系统的探索**:例如DiscoRL系统,通过内外双层循环让AI自主发现学习算法,其发现的Disco57算法在雅达利基准上击败了人类设计的顶级算法,并展现出强大的泛化能力 [70][72] - **中训练路径**:介于预训练和强化学习之间,让智能体通过自主探索产生后果并反思,以建立因果模型,在复杂环境中的成功率平均提升9.6% [72][73] 其他关键技术进展 - **对抗数据与算力瓶颈**:行业通过混合专家模型、合成数据与强化学习结合来突破瓶颈,例如利用DeepSeek-R1生成的长思维链数据对小模型微调,效果优于人类专家编写的数据 [81][82] - **数据质量重于数量**:研究表明数据达到一定规模后存在冗余,筛选前10%最长、最复杂的推理路径样本进行训练,其效果可匹配甚至超越全量数据集 [83] - **合成数据与模型崩溃**:大规模使用合成数据可能导致模型崩溃,但通过自我验证机制过滤(如设定置信度阈值)或使用另一个模型作为裁判进行清洗,可以有效缓解此问题 [85][86] - **小模型能力的飞跃**:蒸馏技术的进步是关键,包括针对混合专家模型的特化蒸馏方案(学习所有专家的“暗知识”)以及思维融合蒸馏(提取多个教师模型的稳健推理逻辑) [88][90][92] - **注意力机制演进**:多头潜在注意力及其变体普及,用于降低显存占用;线性注意力通过混合架构(如Kimi Linear的3:1设计)在性能上首次全面超越全注意力,并在1M上下文解码时吞吐量达到全注意力的6.3倍 [94][96] - **连续空间建模**:大型概念模型和连续自回归语言模型等尝试打破离散词元的限制,通过预测连续概念向量来提升语义带宽和推理速度 [97][100] 2026年可能的技术方向 - **记忆工程化实践**:记忆技术预计将在2026年迎来大规模工程化落地,涉及架构层革新或现有RAG、监督微调技术的精修,以实现持续学习和个性化智能体 [103][104] - **标准架构变革**:模型架构可能向分区、分层、增加功能层(如记忆层)的混合架构演进,以更贴近人脑运作模式,补齐能力短板 [105][106] - **自进化AI的探索**:在记忆、合成数据和元学习等技术完善的基础上,能够让AI进行自我对弈、自我算法优化的自进化研究将在2026年产生更多可能性 [107][112]
Apple selects Google’s Gemini models for Siri upgrade
Yahoo Finance· 2026-01-13 18:43
核心合作与战略布局 - 苹果公司将于今年晚些时候在其Siri语音助手中整合谷歌的Gemini AI模型 双方达成了一项新的长期协议[1] - 此举强化了苹果与谷歌母公司Alphabet之间的合作关系 并扩大了Alphabet在生成式AI领域的影响力[1] - 该协议达成之际 Alphabet正与OpenAI竞争以影响苹果的AI功能[1] 技术整合与功能提升 - 此次整合将使Siri能够直接在iPhone上处理更复杂的查询 同时增强个人上下文理解和屏幕内容识别能力[2] - 苹果智能系统将继续在苹果设备和私有云计算上运行 并维持其行业领先的隐私标准[3] - 整合前 苹果已于2024年底在其设备中增加了ChatGPT集成 使Siri能够利用该聊天机器人的功能 当时苹果表示对ChatGPT集成不会有重大改变[6] 市场影响与覆盖范围 - Alphabet的技术已支持三星的Galaxy AI 但与苹果的新合作将其技术覆盖范围扩展至全球超过20亿台活跃设备[3] - 此次合作的具体财务细节尚未披露[2] Gemini AI模型技术细节 - Gemini 3 Flash是谷歌Gemini系列的最新模型 于2025年12月推出 现已成为Gemini应用和谷歌搜索AI功能的默认模型[4] - 该模型支持高级推理 性能接近实时 其推理能力可与Gemini 3 Pro和GPT-5.2等更大模型相媲美[4] - Gemini 3 Flash的运行速度约为Gemini 2.5 Pro的三倍 且更具成本效益 它能同时处理来自文本、图像、音频、视频和代码等多种格式的输入[5] - 该模型支持交互式应用开发 并能以最小延迟管理涉及多个步骤的技术任务[5] - Gemini 3系列于2025年11月开始推出 包含多个变体 Gemini 3 Pro专为高级推理、数学和编程任务而设计[5] - 另一个版本Deep Think面向Ultra订阅者提供 采用迭代规划处理复杂的科学和分析工作 Nano Banana Pro则专为该系列的图像生成而设计[6]
2025 AI 年度复盘:读完200篇论文,看DeepMind、Meta、DeepSeek ,中美巨头都在描述哪种AGI叙事
36氪· 2026-01-12 16:44
行业技术演进核心观点 - 2025年人工智能技术演进的核心特征是“暴力美学”时代的终结,行业从单纯堆砌参数转向基础研究,重点突破流体推理、长期记忆、空间智能和元学习等领域,以解决通往AGI的能力不平衡问题 [2] 技术能力进展量化评估 - 根据CHC认知理论框架评估,2025年AI在多项关键能力上取得显著进步:即时推理能力从2023-2024年的0%提升至2025年晚期的8%,长期记忆存储从0%提升至3%,视觉处理从0%提升至5%,工作记忆从2%提升至6%,数学能力在2025中期达到10% [3] - 部分能力在2025年达到平台期:一般知识在2025中期达到9%后持平,读写能力在2025中期达到10%后持平,数学能力在2025中期达到10%后持平,听觉处理在2025中期达到6%后持平 [3] - 处理速度在2025晚期达到6%,较2025中期的3%有所提升 [3] 流体推理与Test-Time Compute革命 - 2025年最重要的范式革新是Test-Time Compute的诞生,其核心理念是智能不仅是参数的函数也是时间的函数,代表模型如OpenAI o1和DeepSeek R1通过在推理阶段投入更多计算资源进行“慢思考”,实现了推理能力从0到8的质变 [6] - 强化学习是提升推理能力的关键手段,研究证实RL的作用在于锐化基座模型中已有的原子推理步骤分布,并通过“链接”阶段组合新推理方法以解决未知难题 [7] - 强化学习工程在2025年取得明显发展,评分系统革新体现为基于可验证奖励的强化学习和稀疏奖励指标的全面崛起,尤其在数学、代码等有明确对错的领域效果显著 [11] - 参数更新算法因DeepSeek R1的成功而震荡,GPRO算法因节省50%显存且效果不差成为主流,国内公司在此基础上发展出多种变体,如Qwen的GSPO引入分值加权,Minimax的CISPO采用重要性采样 [15] - Meta的ScaleRL研究证明RL性能增长符合Sigmoid曲线,存在天花板,无法无限提升智力上限,但当前离天花板尚远,最佳工程实践包括使用长思维链和如2048 prompts的大Batch Size [16][17] 记忆能力与架构突破 - 记忆能力是AGI得分中的短板,2025年后半年最重要的模型变革是记忆能力提升,研究围绕三种方式展开:上下文作为记忆、RAG处理过的上下文作为记忆、将上下文融合到参数内化记忆 [18][19] - Google Research发布的Titans架构及Nested Learning是2025年记忆领域的最大突破,从根本上挑战了Transformer的无状态假设,Titans是一个能在推理时实时更新参数的深度神经长期记忆模块,通过“惊奇度”决定信息存储 [19][21][22] - Nested Learning将模型架构分成低、中、高三种更新频率的神经网络层,使整个模型参数可随时调整,低频层更新慢保证知识延续性,高频层处理快速反馈,其成本比SFT和RL达成同等效果更低 [25][27] - RAG在2025年发生质变,从静态资料库演变为具备反思与进化能力的系统,代表如DeepMind的ReMem引入了Action-Think-Memory Refine全链路,对记忆进行修剪、重组和定期清理,实现了经验复用 [28][30] - 针对灾难性遗忘问题,2025年提出了多种参数更新解决方案,Meta的稀疏记忆微调通过在Transformer中加入空白内存层进行稀疏更新,在TriviaQA任务中仅导致11%的旧知识遗忘,远优于全量微调的89% [31] - Thinking Machines提出的在策略蒸馏结合了RL的采样方式和SFT的监督信号,让学生模型在自己实时生成的轨迹中学习,提供密集即时反馈,创造了低成本且不会导致灾难性遗忘的更新方式 [33] 空间智能与世界模型发展 - 视觉处理能力在2025年得到有效提升,主要围绕三个主流派系发展:自监督生成模型、基于3D CV生成的符号主义World Labs派、以及Meta的预测式V-JEPA派 [35] - 自监督生成模型方面,Google DeepMind发布的Genie 3能以24fps帧率和720p分辨率实时渲染可交互的3D环境,并维持数分钟的场景一致性,展现了从海量视频数据中自发学习物理规律的能力 [36] - 研究发现扩散Transformer也遵循Scaling Law,但对批量大小和学习率极为敏感,Google通过打通视频生成的Scaling Law成功训练了Veo 3 [37][38] - Apple研究发现,原生多模态的晚期融合架构相比早期融合架构可能存在上限劣势,但参数利用率更高,同等规模下上限更高 [40] - 快手提出的SVG模型通过直接用图像理解模型代替VAE,统一了语义空间,极大地提升了训练效率和生成速度,在多项核心指标上击败了DiT和SDXL [42] - 李飞飞领导的World Labs派推出了商业产品Marble平台,这是一个“大型世界模型”,能从多模态输入生成可探索的3D空间表示,依赖3D高斯泼溅和神经辐射场技术,更稳定可控 [44][46][47] - Meta的V-JEPA 2通过预测被遮挡视频内容的训练机制,迫使模型学习物理规律,在使用了100万+小时视频训练集后,涌现出了“推演”和反事实预测的能力,但处理跨度仅64帧(约10秒),分辨率384x384 [48][50] 元学习与学习方法演进 - 2025年对学习的核心探讨围绕元学习展开,即模型应具备“学习如何学习”的能力,以应对未知任务和实现低成本快速适应 [51][52] - 关于Transformer是否具备隐式元学习能力存在争论,有研究证明其注意力机制在数学形式上与梯度下降更新步骤类似,但也有研究认为上下文学习只是激活了预训练知识而非真正学习 [53] - Test-Time Compute为隐式元学习提供了新可能,研究尝试引导模型在推理过程中更有效地探索思维路径和分配算力,例如通过累积遗憾最小化策略来优化 [56][58] - DeepMind的DiscoRL通过内外双循环让AI自主发现学习算法,其自主发现的算法Disco57在雅达利基准上击败了人类设计的顶级算法,并展现了强大的泛化能力 [59][61] - Meta的“中训练”方法让Agent在专家演示的每一步尝试备选动作并反思,建立起因果模型,能显著提升在复杂环境中的成功率(平均提升9.6%)并增强泛化能力 [61][63] - 神经科学研究为AI架构提供启示,研究表明大脑通过“动态路由”机制将结构化的神经子空间重新连线以执行新任务,这推动了2025年对模型进行分区(如记忆分区、快慢反应组别)的尝试 [64][66] 基础架构与训练范式演进 - 为对抗Scaling Law瓶颈,行业通过稀疏性、合成数据与强化学习结合实现突破,例如OpenAI在GPT-5.2中采用MoE、合成数据与RL加强三方结合 [68] - 合成数据方面,随着推理能力进步,模型可自主生成长思维链文本,DeepSeek R1的论文表明,利用其生成的长思维链对小模型进行微调,效果远超人类专家编写的CoT数据 [69] - 数据质量重于数量,研究证明筛选前10%推理路径最长、最复杂的样本进行训练,其效果可匹配甚至超越全量数据集 [70] - 针对大规模使用合成数据可能导致“模型崩溃”的问题,研究提出了利用自我验证机制过滤数据的方法,证明只要校准误差在一定界限内,仅凭自我验证就可在完全合成数据体制下持续训练而不崩溃 [72] - 模型蒸馏在2025年取得两大进步:针对MoE架构的特化蒸馏方案《Every Expert Matters》,让学生模型学习教师不同专家的组合输出;以及思维融合蒸馏,通过共识去噪原理将多个教师的稳健推理逻辑迁移给学生模型 [75][77] - 注意力机制方面,2025年是MLA及其变体普及的时代,同时线性注意力复归,Kimi Linear采用3:1混合架构,在1M超长上下文任务中达到94.8的高分,性能首次全面超越全注意力,且吞吐量可达全注意力的6.3倍 [80][81] - 行业出现向连续空间演进的趋势,代表如大型概念模型和腾讯的CALM,试图将多个Token压缩为连续概念向量进行预测,以增加语义带宽和提升效率 [83][85] 2026年潜在技术方向展望 - 记忆能力的工程化实践将成为重点,理论方向已明确,预计研究成果可能在一年内工程成熟并被采用,完成范式转换,更具学习性的记忆系统将被产品化 [87] - 标准架构可能发生变革,趋势是向分区、分层、增加更多功能层的混合架构演进,例如加入Titans记忆层或进行层级分区,以更符合人脑运作模式 [88][89] - 自进化AI探索将在2026年产生更多可能性,现有尝试包括让模型自问自答进行强化学习,以及像Alpha Evolve那样让LLM优化算法代码,但尚属早期阶段 [90][91][93]
谷歌看了都沉默:自家“黑科技”火了,但为啥研发团队一无所知?
36氪· 2026-01-07 19:04
Gemini 3 Flash模型性能与定价 - 谷歌推出新一代AI模型Gemini 3 Flash,其核心特点是模拟人类“直觉”,而非单纯模拟思考[1] - 该模型速度是Gemini 2.5 Pro的3倍,且在某些基准测试中推理能力超越了自家的Pro版本[1][2] - 模型定价为:输入每百万tokens 0.50美元,输出每百万tokens 3.00美元[2] 关键基准测试表现对比 - 在学术推理测试(Humanity‘s Last Exam,无工具)中,Gemini 3 Flash得分为33.7%,低于Gemini 3 Pro的37.5%和GPT-5.2 Extra high的34.5%[2] - 在科学知识测试(GPQA Diamond,无工具)中,Gemini 3 Flash得分为90.4%,略低于Gemini 3 Pro的91.9%和GPT-5.2的92.4%[2] - 在数学测试(AIME 2025,无工具)中,Gemini 3 Flash得分为95.2%,略高于Gemini 3 Pro的95.0%,但低于GPT-5.2的100%[2] - 在代码能力测试(LiveCodeBench Pro,Elo评级)中,Gemini 3 Flash得分为2316,低于Gemini 3 Pro的2439和GPT-5.2的2393[2] - 在代理工具使用测试(t2-bench)中,Gemini 3 Flash得分为90.2%,与Gemini 3 Pro的90.7%相近[2] 关于“并行验证循环”技术的传闻与争议 - 有网络传闻称,谷歌DeepMind团队(AlphaGo团队)未使用思维链(Chain-of-Thought),而是采用了一种名为“并行验证循环”的机制[3][4] - 该传闻描述,并行验证循环允许系统同时生成和验证多个候选解决方案,进行交叉验证并迭代,而非线性思考[10][12][16] - 传闻声称,相比标准思维链,该框架在复杂推理基准测试中性能提升37%,捕捉逻辑错误能力提升52%,收敛到正确解的速度快3倍[13][14] - 该框架被描述为具备自我纠错优势,能在不中断流程的情况下回溯修正错误,适用于科学推理、数学证明、代码调试和战略规划等场景[18][22][23] - 然而,该传闻来源(网友Jainam Parmar)并非AI研究领域权威人士,也未提供明确的DeepMind官方信源,其内容被部分网友怀疑是AI生成的虚假信息或蹭热度的不实言论[26][27][33][35][37] - 有网友指出,相同的可疑内容被不同账号(如Chris Laub)发布,进一步增加了其为“AI垃圾”信息的可能性[43][45] 行业技术现状与反思 - 思维链技术本身已非最前沿,长思维链技术具备深度推理、广泛探索和可行反思等关键特征,能更有效地处理复杂任务[47] - 目前没有可靠证据表明DeepMind已用“并行验证循环”全面取代思维链作为核心推理框架[49] - Gemini 3 Flash的性能跃迁可能源于渐进式优化,而非传闻中的“黑魔法”,行业需警惕对单一技术解释的过度迷信[49]
吴恩达年终总结:2025是AI工业时代的黎明
具身智能之心· 2025-12-31 08:50
吴恩达2025年AI领域年度总结核心观点 - 2025年是AI工业时代的黎明,AI发展从算法竞赛演变为涉及人才、算力、基建和能源的工业革命[14][37] - 尽管AI基础设施和人才竞争变得空前“重”,但推理模型和编程智能体的成熟使得AI开发门槛降低,是软件开发的黄金时代[37] - 对于个人发展,建议通过系统学习课程、持续动手构建项目以及阅读研究论文来掌握构建AI系统的能力[7][15] AI技术发展趋势:推理模型与智能体 - 思考型(推理)模型成为主流,显著提升了模型在数学、编程及复杂问题解决上的性能[19][21] - OpenAI o1-preview在AIME 2024上比GPT-4o高出43个百分点,在GPQA Diamond上高出22个百分点,在Codeforces编程题中表现位于人类选手第62百分位(GPT-4o为第11百分位)[24] - 结合工具(如计算器、搜索引擎)后,模型性能进一步提升,例如带工具的OpenAI o4-mini在一项高难度测试中准确率达17.7%,比无工具时高出3个多百分点[24] - 机器人动作模型通过强化学习(RL)学会推理后,在任务上的表现比不具备思考能力的模型(如OpenVLA)提升约8%[24] - 编程智能体能力飞速进步,2024年Devin将SWE-Bench基准最高水平从1.96%提升至13.86%,而到2025年,使用最新大语言模型的编程智能体已能常态化完成超过80%的同类任务[31] - 2025年底,Gemini 3 Pro、Claude Opus 4.5和GPT-5.2成为编程和智能体工作流领域的顶尖模型[40] AI行业人才竞争与薪酬 - 领先AI公司展开激烈人才争夺战,提供堪比职业体育明星级别的薪酬,从竞争对手处挖走顶尖人才[23] - Meta为新成立的Meta Superintelligence Labs组建团队,向来自OpenAI、Google、Anthropic等公司的研究人员开出高达数亿美元的待遇[23] - 据《华尔街日报》报道,Meta为招募Andrew Tulloch(OpenAI前CTO Mira Murati的联合创始人)提供了价值15亿美元的奖金方案[28] - Meta聘请曾主管Apple AI模型的Ruoming Pang,其薪酬方案在数年内累计高达数亿美元,超过了Apple除CEO之外最高层管理者的薪酬[28] - OpenAI为抵御挖角,提供了更高比例的股票薪酬,加快期权归属进度,并发放高达150万美元的留任奖金[27] - Elon Musk的xAI从Meta挖走十多名AI研究人员和工程师[28] - Microsoft AI CEO Mustafa Suleyman从Google带走了20多名研究人员和工程师[28] AI基础设施与资本支出 - 2025年AI行业资本支出突破3000亿美元,大部分用于建设处理AI任务的新数据中心[27] - 头部AI公司宣布庞大的建设计划,预计未来几年将豪掷数万亿美元,消耗数吉瓦(GW)电力[27] - 据麦肯锡预测,为满足预期的推理和训练需求,到2030年建设足够算力的成本可能高达5.2万亿美元[27] - **OpenAI**:启动与甲骨文、软银等合作的5000亿美元“星际之门”项目,计划在全球建设20吉瓦数据中心产能,并预测需求是该数字的5倍[32] - **Meta**:2025年在基础设施项目上投入约720亿美元,其Hyperion项目包括在路易斯安那州建设一个价值270亿美元、容量5吉瓦的数据中心[32] - **微软**:2025年全球数据中心项目支出达800亿美元,计划将其在欧洲的云和AI产能扩展至200个数据中心[32] - **亚马逊**:预计2025年基础设施支出达1250亿美元,其耗资110亿美元的“雷尼尔计划”是在印第安纳州建设一个2.2吉瓦的数据中心[32] - **Alphabet(谷歌)**:预计2025年基础设施支出高达930亿美元,宣布了一项400亿美元的计划,到2027年在得克萨斯州增加3个数据中心[32] - 基础设施建设热潮为经济带来增长,2025年上半年美国GDP的增长几乎全部来自数据中心和AI领域的投资[30] 编程智能体与开发工具竞争 - 编程成为智能体工作流中最具直接商业价值的应用场景,是AI巨头竞争最激烈的战场之一[31] - 智能体系统不断推高SWE-Bench等编程基准测试上限,催生了SWE-Bench Verified、LiveBench等一系列新基准[34] - 到2025年底,许多公司(如Microsoft、Google、Amazon和Anthropic)报告称自身越来越多的代码正由AI生成,并开始自动化资深级别的任务[34] - Anthropic推出Claude Code应用,确立了智能体编程系统的标准;OpenAI随即推出基于GPT-5系列构建的Codex应用[40] - 模型制造商与集成开发环境(IDE)开发者展开竞争,导致Anysphere (Cursor)和Cognition AI (Windsurf)等IDE提供商开始构建自己的模型,而Google也构建了自己的IDE——Antigravity[40] - 开放权重模型(如Z.ai的GLM-4.5、月之暗面的Kimi K2)成为热门选择,使自动编程类初创公司得以大幅削减成本[40] - 7月发布的Qwen3-Coder是一个4800亿参数模型,在超过5万亿Token的代码数据上训练,性能几近匹敌Claude Sonnet 4[40] 推理模型的效率与成本 - 推理能力提升性能的同时也增加了成本与延迟,给LLM推理服务商带来更大性能压力[22] - Gemini 3 Flash开启推理时运行Artificial Analysis的Intelligence Index基准消耗1.6亿tokens(得分71),关闭推理仅消耗740万tokens(得分55)[22] - 研究人员正努力提高效率,Claude Opus 4.5与GPT-5.1在高推理设置下取得相同Intelligence Index分数,但前者消耗4800万tokens,后者消耗8100万tokens[22]
高频因子跟踪:Gemini3 Flash等大模型的金融文本分析能力测评
国金证券· 2025-12-30 17:02
量化模型与因子总结 量化因子与构建方式 1. **因子名称**:价格区间因子[2][3] * **因子构建思路**:衡量股票在日内不同价格区间成交的活跃程度,以体现投资者对未来走势的预期[3] * **因子具体构建过程**:该因子由三个细分因子按特定权重合成[33][36] 1. **高价格80%区间成交量因子 (VH80TAW)**:计算股票在日内高价格(前80%)区间的总成交量,该因子值与未来收益呈负相关[33] 2. **高价格80%区间成交笔数因子 (MIH80TAW)**:计算股票在日内高价格(前80%)区间的总成交笔数,该因子值与未来收益呈负相关[33] 3. **低价格10%区间每笔成交量因子 (VPML10TAW)**:计算股票在日内低价格(后10%)区间的平均每笔成交量,该因子值与未来收益呈正相关[33] 4. **合成**:将上述三个细分因子按权重(VH80TAW: 25%, MIH80TAW: 25%, VPML10TAW: 50%)进行合成[36] 5. **中性化处理**:对合成后的因子进行行业和市值中性化处理,得到最终的价格区间因子[32][36] 2. **因子名称**:量价背离因子[2][3] * **因子构建思路**:衡量股票价格与成交量的相关性,相关性越低,未来上涨的可能性越高[3] * **因子具体构建过程**:该因子由两个衡量价格与成交量相关性的细分因子等权合成[40] 1. **价格与成交笔数相关性因子 (CorrPM)**:计算高频快照数据中价格与成交笔数的相关性[40] 2. **价格与成交量相关性因子 (CorrPV)**:计算高频快照数据中价格与成交量的相关性[40] 3. **合成**:对上述两个细分因子进行等权合成[40][42] 4. **中性化处理**:对合成后的因子进行行业和市值中性化处理,得到最终的量价背离因子[32][42] 3. **因子名称**:遗憾规避因子[2][3] * **因子构建思路**:基于行为金融学的遗憾规避理论,考察投资者卖出股票后股价反弹的比例和程度,以捕捉情绪对预期收益的影响[3][46] * **因子具体构建过程**:该因子由两个细分因子等权合成[46][51] 1. **卖出反弹占比因子 (LCVOLESW)**:利用逐笔成交数据区分主动卖单,计算卖出后股价反弹的交易占比[46] 2. **卖出反弹偏离因子 (LCPESW)**:利用逐笔成交数据区分主动卖单,计算卖出后股价反弹的偏离程度[46] 3. **合成**:对上述两个细分因子进行等权合成[51] 4. **中性化处理**:对合成后的因子进行行业和市值中性化处理,得到最终的遗憾规避因子[32][51] 4. **因子名称**:斜率凸性因子[2][3] * **因子构建思路**:从投资者耐心与供求关系弹性的角度出发,利用限价订单簿数据刻画委托量和委托价的关系(斜率和凸性)对预期收益的影响[3][54] * **因子具体构建过程**:该因子由两个细分因子等权合成[54][58] 1. **低档斜率因子 (Slope_abl)**:基于订单簿低档位的累计委托量和委托价计算买方或卖方的订单簿斜率[54] 2. **高档位卖方凸性因子 (Slope_alh)**:基于订单簿高档位的累计委托量和委托价计算卖方的订单簿凸性[54] 3. **合成**:对上述两个细分因子进行等权合成[58] 4. **中性化处理**:对合成后的因子进行行业和市值中性化处理,得到最终的斜率凸性因子[58] 5. **因子名称**:高频“金”组合合成因子[3] * **因子构建思路**:将多个表现较好的高频因子结合,以构建更稳健的选股信号[3] * **因子具体构建过程**:将价格区间因子、量价背离因子、遗憾规避因子三类高频因子进行等权合成[3][62] 6. **因子名称**:高频&基本面共振组合合成因子[4] * **因子构建思路**:将相关性较低的高频因子与有效的基本面因子结合,以提升多因子组合的表现[4][67] * **因子具体构建过程**:将价格区间因子、量价背离因子、遗憾规避因子三类高频因子,与一致预期、成长、技术三个基本面因子进行等权合成[4][67] 因子的回测效果 (注:以下因子表现均为在中证1000指数成分股内,进行行业市值中性化后的测试结果,基准为所有成分股等权配置[32]) 1. **价格区间因子**[32][36][39] * 上周多头超额收益率:-1.00%[32] * 本月以来多头超额收益率:-0.90%[32] * 今年以来多头超额收益率:4.56%[32] 2. **量价背离因子**[32][40][44] * 上周多头超额收益率:-2.21%[32] * 本月以来多头超额收益率:-1.48%[32] * 今年以来多头超额收益率:2.99%[32] 3. **遗憾规避因子**[32][46][53] * 上周多头超额收益率:0.45%[32] * 本月以来多头超额收益率:1.47%[32] * 今年以来多头超额收益率:0.42%[32] 4. **斜率凸性因子**[2][56][61] * 上周多头超额收益率:0.66%[2] * 本月以来多头超额收益率:0.25%[2] * 今年以来多头超额收益率:-5.54%[2] 量化模型与构建方式 1. **模型名称**:高频“金”组合中证1000指数增强策略[3][62] * **模型构建思路**:基于合成的高频“金”组合因子构建指数增强策略,以获取稳定的超额收益[3][62] * **模型具体构建过程**: 1. **因子合成**:如前述,将三类高频因子等权合成为高频“金”组合因子[3][62] 2. **选股与加权**:基于该因子值在中证1000成分股内选股并构建投资组合[62] 3. **策略设置**:调仓频率为周度,手续费率为单边千分之二,基准为中证1000指数[62] 4. **优化机制**:加入换手率缓冲机制以降低调仓成本[62] 2. **模型名称**:高频&基本面共振组合中证1000指数增强策略[4][67] * **模型构建思路**:将高频因子与基本面因子结合构建指数增强策略,旨在获得更优的风险调整后收益[4][67] * **模型具体构建过程**: 1. **因子合成**:如前述,将三类高频因子与三个基本面因子等权合成为共振组合因子[4][67] 2. **选股与加权**:基于该因子值在中证1000成分股内选股并构建投资组合[67] 3. **策略设置**:调仓频率为周度,手续费率为单边千分之二,基准为中证1000指数[67] 模型的回测效果 1. **高频“金”组合中证1000指数增强策略**[3][63][66] * 年化超额收益率:9.85%[3][63] * 跟踪误差:4.32%[63] * 信息比率(IR):2.28[63] * 超额最大回撤:6.04%[3][63] * 上周超额收益:-2.06%[3][66] * 本月以来超额收益:-1.64%[3][66] * 今年以来超额收益:5.26%[3][66] 2. **高频&基本面共振组合中证1000指数增强策略**[4][69][71] * 年化超额收益率:13.93%[4][69] * 跟踪误差:4.20%[69] * 信息比率(IR):3.31[69] * 超额最大回撤:4.52%[4][69] * 上周超额收益:-1.37%[4][71] * 本月以来超额收益:-1.33%[4][71] * 今年以来超额收益:5.24%[4][71]
创业板人工智能ETF南方(159382.SZ)涨1.00%,中际旭创涨1.96%
金融界· 2025-12-30 15:02
市场表现 - 12月30日,沪深两市震荡上行,机器人板块涨幅居前 [1] - 截至14点30分,创业板人工智能ETF南方(159382.SZ)上涨1.00% [1] - 中际旭创上涨1.96% [1] 行业趋势与驱动因素 - 以谷歌为代表的全球科技巨头正通过模型、芯片与生态的三重举措系统性扩张AI算力基础设施,为上游高速光模块需求提供了高度确定的长期支撑 [2] - 模型侧:通过推出低成本、高性能的推理模型(如Gemini 3 Flash)持续降低企业应用门槛,激发规模化推理算力需求 [2] - 硬件侧:通过对自研TPU的加单及与产业链合作加速算力集群部署,直接拉动数据中心内部高速互联需求 [2] - 生态侧:通过“TorchTPU”等计划吸引更广泛的开发者,扩大其算力服务的客户基础 [2] - 明确趋势:无论底层芯片架构如何演进,AI算力基建的扩张必然伴随数据中心流量激增,从而使800G/1.6T高速光模块成为不可或缺的关键组件 [2] 市场预测与数据 - 行业研究机构LightCounting预测,2029年全球光模块市场规模有望突破370亿美元 [2] - 1.6T光模块将于2025年进入商用元年,初期全球需求预计达250万至350万只 [2] - 技术代际切换将推动产业价值向高端环节集中 [2] 相关投资标的分析 - 创业板人工智能ETF南方(159382.SZ)作为当前含“光”量极高的ETF,其“易中天”三大成分股合计权重占指数权重近39% [2] - 该ETF高度聚焦于光模块等关键环节,能够较为直接地受益于AI算力建设带来的硬件升级与需求放量红利 [2]