Workflow
GPT系列
icon
搜索文档
中金 | AI十年展望(二十六):2026关键趋势之模型技术篇
中金点睛· 2026-02-05 07:52
文章核心观点 - 2025年全球大模型在推理、编程、Agentic及多模态等能力上取得明显进步,已能应用于真实生产力场景,但模型在稳定性、幻觉率等方面仍有短板 [1][3] - 展望2026年,预计预训练Scaling-Law将重现,旗舰模型参数量将更上一个台阶,强化学习、模型记忆、上下文工程等领域将取得更多突破,推动模型向AGI目标迈进 [1][2][4] - 中美大模型发展路径不同:海外厂商追求智能上限,国内厂商在有限算力下通过开源和工程优化追求效率与性能平衡,但两者相互借鉴,共同推动AI产业发展 [12][14] 技术视角:模型能力进展与短板 - **2025年能力进展**:海内外模型在推理、编程、Agentic及多模态能力上持续迭代,在文本、搜索、编程、图像&视频多模态任务等多个领域已达到真实生产力水平,进步超过2023年预期 [3] - **现存短板**:模型通用能力在可靠性、幻觉率方面未完全解决,记忆能力有提升空间;细分领域上,强逻辑&数学推理能力稳定性不足,对真实世界的理解和建模能力较弱,智能呈现“锯齿状” [4] - **2026年展望**:模型将在长板层面继续进化,并寻找有效路径补齐短板,从ChatBot到Agent,从短context生成到长思维链任务,从文本交互到原生多模态演进 [4] 模型细分能力复盘 - **推理**:强化学习激励模型形成更长思维链解决复杂任务,“测试时计算”成为主流工程杠杆,模型学会并行思考与反思;模型推理与工具调用结合形成“交错思维链”,以完成更复杂的Agent任务,但产业也开始优化思维链效率以控制成本与延迟 [6] - **编程**:在模型推理能力提升驱动下,AI编程从代码补全进化为具备工程闭环能力的开发者代理,能拆需求、搭框架、调接口、跑测试;前端追求极致视觉还原与即时预览,后端模型已具备架构思维,通过“慢思考”推演降低幻觉率,预计2026年编程仍是落地最快场景之一 [6] - **Agentic**:2025年工具调用能力成为标配,核心技术突破之一是交错思维链的使用,让智能体在思考与行动间无缝高频切换,提升实时修正能力并降低幻觉与记忆遗忘,能自主拆解数十个子任务并实现复杂长程任务闭环 [9] - **多模态**:图片生成在质量、理解与控制能力上大幅跃升,迈入可控、可用、可规模化生产阶段;以Gemini-3为代表的原生多模态架构普及,统一token化训练,并将强化学习引入视觉和音频领域以加强时空逻辑和动作因果理解 [9][10] 海内外头部模型竞争格局 - **海外头部玩家**:OpenAI、Anthropic、Gemini以AGI为远期目标,从不同维度加速探索;OpenAI文本类推理实力突出,同步提升多维度能力维持领跑;Gemini后来居上,基于预训练高质量数据与Scaling Law及后训练强化学习,基础与多模态能力大幅提升;Anthropic聚焦代码及Agent领域,走出别具一格变现路径 [11] - **国产大模型**:整体能力与海外头部模型维持约半年静态差距,在海外模型推出3个月到半年后,国内头部厂商能推出能力相当的模型并达到SOTA水准;第一梯队包括阿里Qwen-3、字节豆包1.8、DeepSeek-V-3.2、Kimi-K2、智谱GLM-4.7、MiniMax-M2 [12] - **发展路径差异**:海外厂商算力资源丰富,通过算力Scaling Law+算法优化+高质量数据齐头并进迭代基座模型,追求智能上限;国内厂商在有限资源下,通过开源路线、工程及算法优化追求效率与性能平衡,并在应用端开拓更具创新思维 [14] 模型架构:优化与创新 - **架构延续与优化**:主流模型参数规模已达万亿以上,厂商更聚焦模型架构、算法、工程共同优化,在扩大参数规模的同时提升参数利用效率 [14] - **MoE架构成为共识**:MoE架构采用稀疏激活模式,通常仅激活模型总参数的10-20%,显著降低计算量,实现计算需求与模型规模的有效解耦;国产模型如DeepSeek-V3.2、MiniMax-M2、Qwen-2.5均使用MoE架构 [17] - **MoE优化挑战**:面临计算效率、专家负载不均、参数通信等问题,需通过更复杂算法和硬件基础设施解决,例如通过辅助损失函数实现负载均衡,并通过芯片与算法协同设计提升效率 [18] - **注意力机制优化**:模型厂商基于效果在不同注意力机制(Full-Attention、Linear-Attention、Hybrid-Attention)间优化与切换,以平衡精度与效率,例如阿里千问深耕Linear-Attention,DeepSeek-V3.2引入Sparse-Attention将计算复杂度从O(N^2)降至O(Nk) [20] 工程优化:降本提速与规模化 - **核心目标**:工程侧优化聚焦降本提速与规模化生产,包括推理侧思考链工程化、实时路由机制分配模型类型、长上下文规模化落地等 [21] - **具体实践**:GPT-5引入实时路由模式,根据用户提示词自动分发请求;海内外厂商通过混合注意力机制、KV Cache压缩、算子优化、上下文重写与压缩等不同路径提升上下文处理效率 [21][22] 训练范式演进 - **预训练Scaling-Law重现**:预计2026年预训练阶段在算法和工程优化下仍有提升空间,随着英伟达GB系列芯片成熟及推广,模型将基于更高性能的万卡集群实现Scaling Law,模型参数量和智能上限将进一步提升 [1][22] - **强化学习重要性提升**:强化学习成为解锁模型高级能力的关键,其本质是“自我生成数据+多轮迭代”,依赖大规模算力与高质量数据;预计2026年强化学习在训练阶段占比将进一步提升 [2][23] - **强化学习占比数据**:DeepSeek V3.2后训练计算预算占预训练成本的10%+,估计海外模型厂商相关比重更高,可能在30%左右 [23] - **强化学习路径演进**:正从静态离线向动态在线演进,长期趋势是模型持续向半自动验证甚至不可验证的场景中进行在线学习 [26] 前沿技术路线展望 - **持续学习与模型记忆**:旨在解决大模型“灾难性遗忘”问题,让模型具备选择性记忆机制;Google提出的MIRAS、Titans、Nested Learning、HOPE等算法和架构是让模型根据任务时间跨度和重要性动态调整学习和记忆方式的关键 [2][28] - **嵌套学习(Nested Learning)**:模仿人脑处理记忆的方式,通过分层学习和优化机制实现持续学习新范式 [29] - **HOPE架构**:作为嵌套学习的工程实现,是基于自修改Titans+连续记忆系统的多层次记忆系统,通过“快”“慢”系统协作对抗灾难性遗忘 [32] - **模型记忆成为Agent刚需**:ChatGPT通过四层上下文堆栈工程化优化记忆,未来技术演进路径包括分层记忆、将长期记忆更新至模型参数 [35] - **世界模型**:聚焦理解物理世界因果规律,是实现AGI的重要拼图;主要技术路径包括李飞飞团队的3D物理空间(Marble模型)、LeCun的基于控制理论的JEPA架构、Google DeepMind的交互式视频引擎(Genie 3) [36][40] 海外头部模型厂商巡礼 - **OpenAI**:2025年模型在推理、Agentic、多模态、代码方面全方位提升,发布GPT-4.1、o4-mini、GPT-5、Sora-2等;预计2026年将加速商业兑现,拓展企业端和广告市场 [41][42] - **Gemini**:2025年能力大幅跃升,Gemini-3发布使Google成为世界第一梯队;原生多模态图像生成模型Nano banana Pro具备空间推理和光影控制能力;预计2026年将聚焦综合能力提升并加速探索世界模型 [43][45][47] - **Anthropic**:2025年延续在编程领域优势,加强代码和Agent体验;推出Claude Code(截至25年底ARR已突破10亿美元)和Cowork,探索企业场景;预计2026年将提升记忆能力并探索更多Agent泛化场景 [48][49][52] - **商业化与IPO前景**:截至26年1月,OpenAI估值达8,300亿美元,25年收入预计200亿美元,计划26年Q4启动IPO;Anthropic估值达3,500亿美元,25年收入90亿美元,也将在26年启动IPO [61] 国内头部模型厂商巡礼 - **阿里通义千问**:2025年推出Qwen-3等模型提升全模态能力,领跑中国市场;预计2026年将探索B端Agent市场机遇,让Qwen Agent作为“Orchestrator”编排垂类Agent,并可能探索世界模型技术 [53] - **字节豆包**:2025年提升基座模型能力,豆包1.8具备超长上下文与多模态、Agent能力;截至25年12月底,豆包大模型日均使用量达50万亿+(自发布以来提升417倍),日活用户突破1亿;预计2026年将延续多模态优势并深挖Agent机会 [54][55] - **DeepSeek**:2025年引领大模型走向开源普惠,发布R1、DeepSeek-Janus-Pro、DeepSeek-V3.2等;架构上采取稀疏注意力机制降低计算复杂度;预计2026年将持续追求技术优化与提升多模态能力 [56][57]
AI-驱动的新药研发-原理-应用与未来趋势
2026-01-20 09:50
AI驱动新药研发行业研究纪要关键要点 涉及的行业与公司 * 行业:AI驱动的新药研发(AIDD)行业 [1] * 提及的公司:某西智能(采用GAN模型,已进入临床二期)[16]、某泰科技(以传统CADD为主,拓展深度学习)[16]、星耀科技(曾技术优秀但已倒闭)[16] * 提及的技术/模型提供方:AlphaFold(预测蛋白质结构)[1][2][4]、OpenAI(生成模型)[2]、扩散模型(Diffusion Model)[1][2][4]、Deepseek(对话模型)[7][18]、ChatGPT(对话模型)[7]、GPT系列(大规模参数模型)[11]、DeepMind(智能体应用)[18]、Anthropic(大模型趋势)[18] 核心观点与论据 AI制药的原理与优势 * AI通过预测蛋白质结构(如AlphaFold)加速靶点发现,并利用生成模型(如扩散模型)设计先导化合物,提高新药研发效率和成功率 [1][2] * 人工智能驱动的新型药物发现(AIDD)跳过传统计算机辅助药物设计(CADD)复杂的物理规则,通过海量数据直接预测分子效果,提高了预测准确性和数据集处理能力 [1][3][4] * AI在临床前研究中可预测小分子的毒性、安全性等性质,减少实验筛选时间和成本 [2] 关键技术方法与应用 * **图神经网络(GNN)**:擅长处理小分子结构数据,但随着分子复杂性增加,学习效果显著下降 [1][13] * **多模态学习**:整合图像、文本、指纹和点云等多种数据模态,更全面表征小分子特性,提高研发效率,已在KRAS靶点研究中取得成果(使用3,400多个小分子结构及活性数据)[1][15] * **AI模型类型**:分为解决特定垂直领域问题(如药物结构生成、基因诊断)的“小模型”和用于对话及调用(如撰写报告)的“大模型” [1][7][11][12] * **智能体应用**:可根据用户需求自主设计并监控整个工作流程,例如ADM MEC智能体可自动调用约14个工具生成报告,降低化学家和生物学家使用门槛 [18][20] 行业评估与发展趋势 * **评估AI制药公司能力**需考察:是否采用深度学习等先进算法(非仅传统CADD)、拥有高质量数据、已有成功案例、持续创新能力 [1][5][6] * **未来趋势**:小分子设计复杂化(如雷帕霉素等新型大分子胶)[13][17]、多模态融合技术主流化 [1][17]、新型编码器和深度学习算法涌现 [1][17]、智能体在工作流设计中应用增加 [1][20]、公司技术保密更严格 [17] * **模型选择**:基于测试,上百亿参数的大模型与32B或8B的小模型在调用工具时效果相似,需权衡参数量、效果及成本 [21] 其他重要内容 * AI模型的训练过程类似于人类学习,包括非监督学习的初步分类和引入外部标签的监督学习 [8] * 选择适当的数据编码器(如CNN处理图片、RNN/Transformer处理语言、GNN处理图结构)对提高AI模型性能至关重要 [10] * 当前一些主流AIDD公司的技术特点各异,包括模型类型(如GAN)、技术透明度(开源或保密)和市场化能力 [16] * AI编程(AI coding)是当前最成熟的大模型应用之一,已催生市值数百亿甚至上千亿的公司 [18]
Deepseek新模型有望2月发布,这些方向成潜在发酵重点
选股宝· 2026-01-15 16:19
事件概述 - DeepSeek或将于2月发布新一代旗舰AI模型DeepSeek V4 [1] - 内部初步测试表明,V4在编程能力上超过了Anthropic的Claude和OpenAI的GPT系列 [1] 核心技术突破:Engram模块 - Engram模块是V4架构的核心突破,是一个巨大的、可扩展的嵌入表,为Transformer增加外接记忆库 [2] - 该模块实现了“查算分离”,将实体名、通用常识等静态知识存入可扩展查找表,实现O(1)级快速检索,让MoE专家层聚焦复杂推理 [2] - 该技术将大模型20%-25%的静态知识参数从GPU显存迁移至主机内存,重塑了模型的存储需求结构 [3] - 同等参数规模下,模型对高成本HBM的依赖强度显著下降 [3] - 系统可在GPU执行计算时异步预取DRAM数据,使DRAM成为承载“温数据”的核心层级,单节点存储容量有望从1-2TB翻倍至4TB以上 [3] 对产业链的潜在影响 - 技术变革直接带动服务器对高频DDR5、MRDIMM及CXL存储池化技术的需求爆发 [3] - 推动AI应用场景下SSD用量进入高速增长通道 [3] - 相关SSD存储标的包括江波龙、德明利、佰维存储 [9] AI编程的战略意义与市场前景 - AI编程是当前B端应用落地最成熟和最主流的赛道 [4] - Anthropic的AI编程工具Claude Code在发布仅6个月后年度化收入就达到了10亿美金 [4] - 根据OpenRouter数据,AICoding占据全球token总消耗的50% [4] - 国产开源大模型有利于提升国产IDE的使用频次和深度 [4] - 低代码平台同样受益于国产大模型的发展,可将智能化场景合理拆分,分阶段推进 [4] - 相关应用厂商标的包括合合信息、万兴科技、京北方、宇信科技、华宇软件、卫宁健康、创业慧康、嘉和美康、用友网络、金蝶国际等 [9] V4版本的其他潜在关注点 - 关注V4是否会发布蒸馏版本以提升AI应用使用性价比,蒸馏版本可适用于多种算力芯片,利好消费电子 [5] - 关注API定价是否会大幅低于其他主流大模型 [5] - 关注V4在多模态上是否有重要更新 [5] - 关注V4是否进一步支持国产芯片架构,DeepSeek在V3.1时已公开使用针对国产芯片设计的UE8M0 FP8 Scale参数精度 [5] - 国产大模型和国产芯片之间的协同将有效加速国内AI产业发展 [5] - 相关算力基础设施标的包括寒武纪、海光信息、弘信电子、首都在线、光环新网、优刻得、科华数据、浪潮信息等 [9] 历史市场表现 - DeepSeek R1模型于2025年春节前发布,并在春节期间火爆全球 [6] - 概念股每日互动从17元附近一度最高涨至70元 [6]
财经观察:DeepSeek一周年,中美AI之路再对比
环球时报· 2026-01-15 06:51
中国人工智能行业发展态势 - 中国AI初创公司深度求索预计将于2月中旬推出下一代AI模型V4,其编码能力表现可能优于美国公司Anthropic的Claude和OpenAI的GPT系列 [1] - 2025年一年时间,中国缩小了与美国在人工智能领域的差距,中美大模型已跑出两条不同的主航道 [1][4] - 中国的开源人工智能模型占全球AI技术使用总量的近30%,中国的开源模式正在赢得世界各地开发者的信任 [3] 中美AI发展路径对比 - 美国走的是“前沿能力持续拉高+闭源模型+平台化产品”路线,将最强模型封装成ChatGPT等超级入口,目标是把智能变成可控、可收费、可治理的基础设施 [4] - 中国走的则是“开源权重+极致工程效率+快速产业扩散”路线,不追求长期垄断最强模型,而是把足够强的能力尽快做成可复制、可落地的工程资产 [4] - 若只看“最强模型的前沿能力”,美国仍领先数月到一年级别;若看“工程效率、成本和落地速度”,中国几乎没有时间差,局部甚至更快;若看“产品平台、生态与规则制定”,美国依然领先一到两年 [5] 中国AI公司的竞争力与进展 - 深度求索的R1大模型仅用两个月完成训练,成本仅为美国公司所花费金额的一小部分,但效果与OpenAI的ChatGPT和Meta的Llama大模型不相上下 [2] - 阿里巴巴早在2018年就启动了AI大模型研发,截至目前已开源近400个模型,全球衍生模型超过18万个,下载量突破7亿次 [3] - 更多的中国大模型公司已紧跟最新AI发展步伐,跻身全球大模型第一梯队 [2] AI技术应用与落地前景 - 2025年,AI改变最大的地方是写代码,未来信息接收、创造和处理会更多地被AI替代 [8] - 中国在“工程落地速度”和“供应链完整度”方面具有优势,在激光雷达、高能量密度电池和高性价比电机组件上几乎占据半壁江山,机器人迭代快且具备大规模量产的潜力和成本优势 [7] - 下一个“深度求索时刻”可能出现在人形机器人+大模型、工业/能源/供应链大模型、低成本推理与端侧模型突破等方向 [10] AI产业规模化与市场影响 - AI潮玩品牌珞博智能将2026年销售目标定为100万台AI玩具,认为大模型技术成熟、供应链成本可控、消费者认知提升三大条件已具备 [10] - “100万台”是AI玩具行业的里程碑,海量高质量的交互数据将极大加速模型“数据飞轮”的运转,形成良性循环 [11] - “100万台”意味着市场教育完成,证明AI玩具能够真正融入日常生活,成为提供情感价值的“生活必需品” [11] 对AGI(通用人工智能)发展的看法 - 特斯拉CEO马斯克认为AGI最快可能于2026年出现,2030年前AI能力将超越人类总和 [9] - 从技术角度看,AGI最先逼近的很可能还是美国头部实验室体系,其算力、工程与前沿探索优势明显 [9] - 中国更容易在真实社会中快速规模化部署AI,将其嵌入产业、政务和公共服务,让AI在现实系统里长时间运行并积累优势 [9]
DeepSeek下一代AI 模型V4有望发布,低费率云计算ETF华夏(516630)涨超6%规模再创新高
新浪财经· 2026-01-12 14:31
AI与云计算行业市场表现 - 2026年1月12日,AI+方向市场表现强劲,低费率云计算ETF华夏(516630)盘中上涨6.47%,冲击3连涨 [1] - 相关持仓个股表现突出,拓尔思、汉得信息、易点天下实现20cm涨停,万兴科技、中科星图等个股跟涨 [1] - 拉长时间看,截至2026年1月9日,云计算ETF华夏近1周累计上涨9.33% [1] 驱动事件与产业趋势 - 消息面上,DeepSeek计划于2026年2月发布新一代旗舰AI模型DeepSeek V4,该模型具备强大的编程能力 [1] - DeepSeek V4是继2024年12月发布的V3模型之后的最新版本,内部初步测试表明其在编程能力上超过了当前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列 [1] - 招商证券建议投资者围绕产业趋势最为明确的AI、政策驱动最为确定的信创以及最为受益“牛市”Beta的金融科技进行布局 [2] 相关金融产品与指数构成 - 云计算ETF华夏(516630)跟踪中证云计算指数(930851),其费率在同类产品中最低 [2] - 该指数聚焦国产AI软硬件算力,其中计算机软件、云服务、计算机设备三个细分行业合计权重高达83.7% [2] - 该指数在DeepSeek及AI应用领域的含量均超过40% [2] - 该ETF设有场外联接基金,A类份额代码为019868,C类份额代码为019869 [2]
DeepSeek V4大模型被曝春节前后发布!科创人工智能ETF华夏(589010) 放量大涨4.33%,持仓股掀起涨停潮
每日经济新闻· 2026-01-12 14:00
科创人工智能ETF市场表现 - 截至13点43分,科创人工智能ETF(589010)放量大涨4.33%,盘中持续运行于均线之上,展现出强劲的进攻姿态 [1] - ETF成交额突破2.52亿元,换手率超8%,交投情绪极度火热,显示出市场资金对科创板人工智能方向的长期价值高度认可 [1] - 持仓股方面掀起“涨停潮”,新点软件强势斩获20CM涨停,海天瑞声飙升近19.5%,中科星图、福昕软件、星环科技-U等多只核心成分股联袂大涨超15% [1] 人工智能行业动态与展望 - 科技媒体The Information援引知情人士透露,DeepSeek计划在2月中旬农历新年期间发布V4版本,该模型是DeepSeek V3的迭代版 [1] - 基于公司内部基准测试的初步评估显示,DeepSeek V4模型在编程能力上超越了现有模型,如Anthropic的Claude和OpenAI的GPT系列 [1] - 开源证券表示,AI模型能力持续提升且使用成本降低,以Deepseek、Qwen为代表的中国开源模型崛起,同时多模态大模型迎来快速突破,有望推动应用端的进一步繁荣 [2] 科创人工智能ETF产品特征 - 科创人工智能ETF华夏(589010)紧密跟踪上证科创板人工智能指数,覆盖全产业链优质企业 [2] - 该ETF兼具高研发投入与政策红利支持,20%涨跌幅与中小盘弹性有助于捕捉AI产业“奇点时刻” [2]
DeepSeek V4大模型被曝春节前后发布:AI编程能力超Claude;“死了么”APP引争议,开发者回应;演员闫学晶多个平台账号被禁止关注丨邦早报
创业邦· 2026-01-11 09:07
人工智能与大型语言模型 - DeepSeek计划在2026年2月中旬农历新年期间发布其V4版本大模型,内部基准测试初步评估显示,该模型在编程能力上超越了Anthropic的Claude和OpenAI的GPT系列 [2] - OpenAI与软银集团各自投资5亿美元,共同向SB Energy投资10亿美元,作为“星门”计划的一部分,OpenAI选定SB Energy建设并运营其位于得克萨斯州米拉姆县的1.2GW数据中心,首批设施预计2026年开始运营 [2] - 腾讯CEO办公室首席科学家姚顺雨表示,当前模型相关的生产力提升或商业化机会才刚刚开始,尚未充分释放,目前机会不到1% [3] - 月之暗面创始人杨植麟透露,下一代Kimi模型将采用新型线性注意力机制Kimi Delta Attention,并计划在未来十年、二十年内陆续推出K4、K5直至K100系列模型 [3] 科技巨头与投资动态 - 知名投资人迈克尔・伯里表示不会做空Meta、谷歌和微软,认为这些公司业务版图远超人工智能领域,在各自核心业务领域的主导地位稳固 [3] - 增强现实公司XREAL已完成新一轮1亿美元融资,公司估值已超过10亿美元,该公司由谷歌及AMD前员工于2017年创立,目前拥有近500名员工 [14] - 消费级3D打印机企业原子重塑完成近亿元A轮融资,资金将用于产品研发与市场拓展 [14] - 珠海麦得发生物科技股份有限公司成功完成B轮融资,由中国太平创新、广药资本联合参与 [14] 新能源汽车与智能出行 - 雷军称特斯拉并非不可战胜,并分享易车网销量排行榜,表示小米SU7是迄今为止唯一击败Model 3的同档纯电轿车 [9] - 小米汽车宣布新一代SU7将全系搭载小米超级电机V6s Plus,后续会引入由小米自研、自产的V6s Plus超级电机以提升生产效率 [15] - 2025年12月,蔚来全新ES8零售销量达22,258台,超越问界M8等车型,斩获大型SUV销量冠军 [10] - 消息称吉利控股正考虑向美国市场扩张,极氪和领克等品牌或是首选,公司可能在未来24至36个月内发布相关计划 [13][14] - 马斯克透露特斯拉有大约15万员工,其中持H-1B签证者不到3000人,占比仅为百分之几 [13] 消费电子与前沿科技 - 据报道,折叠iPhone或将成为首款采用三星COE OLED技术的苹果设备,这项技术可使屏幕更亮、更纤薄 [13] - 国内首款3D打印涡喷航空发动机完成飞行试验,该发动机零件数减少60%,主要性能已超越同类产品 [15] 电影娱乐市场 - 截至2026年1月9日,2026年1月中国电影总票房(含预售)已突破10亿元,总出票2529.00万张,平均票价39.5元 [16][18] - 2026年1月票房排名前三的影片为:《疯狂动物城2》(单月票房2.55亿元,占比25.5%)、《阿凡达3》(单月票房2.36亿元,占比23.6%)、《匿杀》(单月票房1.89亿元,占比18.9%) [19] 其他行业与社会事件 - 一款名为“死了么”的App在苹果付费软件排行榜位列第一,该应用是为独居人群打造的轻量化安全工具,由三名“95后”远程协作开发 [7] - 银行控股公司Coastal Financial收购了气候友好型消费金融服务产品品牌GreenFi [13] - 网传“深圳成全国首个电动车停车收费城市”被证实为不实信息 [13]
穷人福音,MIT研究:不用堆显卡,抄顶级模型作业就成
36氪· 2026-01-09 21:20
文章核心观点 - 麻省理工学院的研究表明,尽管用于科学发现的AI模型在架构、训练数据和模态上存在巨大差异,但随着模型性能的提升,它们对物质世界的内在理解会趋于一致,即向同一个“真理”收敛 [1][2][3] - 这种“表征对齐”现象不仅存在于科学AI领域,也出现在跨模态(如语言与视觉)的模型中,意味着强大的AI正在构建一个共享的、对现实的“内在图景” [9][14] - 研究揭示了高性能模型认知的趋同性,为AI开发提供了新方向:无需盲目堆砌算力和参数量,可通过“模型蒸馏”等技术,将大模型的知识迁移到更轻量的小模型上,从而实现高效且低成本的创新 [18][20][24] AI模型认知的收敛性 - 研究汇集了59个不同“出身”的模型,发现当模型变得足够强大时,它们对物质的理解(隐藏层表达)会变得极度相似,尽管它们处理数据的方式天差地别 [1][2] - 引入“表征对齐度”指标后发现,模型预测物质能量越准确,其思维方式就越接近其他顶尖模型,在表达空间里会自发地向同一个方向靠拢 [3][5] - 一个处理文字(SMILES字符串)的模型与一个计算受力的物理模型,在“认知”上实现了高度对齐,表明它们通过不同路径抵达了相同的理解顶峰 [2] - 无论模型架构多么复杂,其最终提取的物质特征在数学复杂度上压缩到了一个非常窄的范围,抓取的都是最核心、最精简的物理信息 [5][6] 跨模态与跨领域的普遍性 - 认知收敛现象不局限于科学AI,在纯文本语言模型(如GPT)和纯图像视觉模型(如CLIP)中也存在 [9] - 当模型规模变大、性能变强时,语言模型中对“猫”的文本向量表示(靠近“毛茸茸”“宠物”等词)与视觉模型中对“猫”的图像向量表示(靠近胡须、圆眼睛等特征)会在线性空间中越来越接近 [11][14] - 这表明AI无论从文字、图像、分子结构还是3D坐标切入,只要足够强大,其内部表征都会趋向同一个对现实的“内在图景” [14] 低性能模型的局限与风险 - 性能不佳的模型有两种失败模式:一是各自在错误的道路上渐行渐远(表征对齐度低),二是集体漏掉关键信息,虽然想法一致但理解肤浅 [15] - 例如MACE-OFF模型在特定任务上表现强,但表征对齐度极低,其学到的规律难以迁移到其他科学任务上,可能只是“死记硬背”而非真正理解 [15] - 当AI遇到训练数据中从未见过的分子结构时,预测误差(MAE)会激增,且表征完全偏离正常的物理分布,表明其缺乏真正的泛化能力 [17] - 训练数据的多样性和质量是模型能否触及“真理”的基础,数据不足会导致模型无法进化成真正的通用基座模型,只能在舒适区内“原地踏步” [17] 对行业发展的启示与未来方向 - 研究挑战了盲目追求大算力和大参数量的行业竞赛,指出了一条更务实的路径:利用“真理收敛”特性,通过“模型蒸馏”将大模型的知识复刻到更轻量、高效的小模型上 [18][24] - 实验显示,即使是参数量较小的模型,只要其表征能与最佳性能模型对齐,同样能在分子能量预测等任务中获得极高的准确度 [20] - Orb V3模型展示了通过大规模训练和聪明的正则化手段,简单的架构也能学到昂贵、强加物理限制的模型才有的理解力,这为模型设计提供了新思路 [20] - 未来评估科学AI的标准将更加多元,不仅看其任务“考分”,更要看其是否踏入了“真理的收敛圈”,这有助于催生更多针对特定场景的轻量级AI,实现“算力自由”下的创新爆发 [22][25] - 行业的发展重点可能从设计复杂架构或漂亮公式,转向如何更稳定地让模型进入“收敛圈”,并利用“表征对齐”实现模型的轻量化和知识迁移 [24]
谷歌市值反超苹果,AI竞争向“模型+芯片”双重差异化进化
全景网· 2026-01-09 15:15
文章核心观点 - 谷歌母公司Alphabet市值自2019年以来首次超越苹果,达到3.88万亿美元,跃居美股市值第二,这标志着市场对科技巨头AI布局进展的“用脚投票”,AI时代正在重构科技产业发展前景与话语权 [1] - 谷歌的市值超越是AI产业加速发展的催化剂,掌握AI核心能力(如模型与底层芯片)的企业将在未来科技变革中占得先机,而联想集团等能在算力基础设施和落地应用环节与大模型厂商深度绑定的企业将享受市场红利 [1][2] - AI产业发展围绕算力基础设施建设与落地应用两大重心,能源成为算力核心瓶颈,以液冷技术为代表的节能解决方案和与芯片厂商的紧密合作是关键竞争要素 [2][4][5] 谷歌与苹果的市值表现及AI驱动因素 - 2025年以来,Alphabet股价累计飙升逾60%,创2009年金融危机以来最佳年度表现,并领跑美股七大科技巨头,主要得益于其在AI领域的卓越表现 [1] - 苹果2025年股价累计涨幅不足10%,在七巨头中仅略高于亚马逊,其新一代AI Siri助手迟迟不能发布,硬件更新预期提前透支,导致市场对其增长想象力预期下降 [1] - 谷歌在AI领域的两大关键成果驱动了市值逆袭:一是Gemini系列大语言模型能力在多个性能指标上超过GPT-5.1,打破OpenAI市场主导地位;二是基于自研TPU芯片实现了AI软硬件全产业链整合 [8] - Gemini在生成式AI网络流量中的份额从约5%跃升至18%,三星计划在2026年将搭载谷歌Gemini AI功能的移动设备数量增至8亿部,助力谷歌占据更大市场优势 [8] AI算力基础设施的发展与竞争 - 算力是AI发展最先受益的环节,谷歌表示必须“每6个月将算力容量翻倍”,未来4到5年总体目标是实现“1000倍能力提升”,显示行业对算力基础设施的旺盛需求 [3] - AI算力竞争已从对GPU芯片的争夺转向对能源的争夺,谷歌、微软、Meta、亚马逊等科技巨头不得不亲自下场投资能源供给,例如Alphabet以47.5亿美元全资收购数据中心能源供应商Intersect [4] - 为满足爆发式算力需求,与芯片厂商的密切合作是布局算力基础设施的必然选择,联想集团在2026CES上与英伟达、AMD、英特尔、高通四大芯片巨头同期开展新一轮合作 [3] - 联想集团与英伟达立下三年内将业务合作规模扩大至四倍的目标,并共同发布“联想人工智能云超级工厂”,合作覆盖云数据中心、企业级AI系统、AI PC与新型AI原生终端,形成从云端到终端的AI全链条算力版图 [3][4] 液冷技术作为解决能源瓶颈的核心方案 - 以液冷为代表的节能技术是算力基础设施硬件提供商为大模型厂商解决能源瓶颈的重要方案,也是抢占市场的核心利器 [5] - 联想集团海神液冷技术收入在2025/26财年第二季度同比大增154%,远高于同期服务器市场增速,表明其市场份额正快速扩大 [5] - 海神液冷技术采用100%全覆盖冷板式液冷设计,系统功耗比传统风冷直降40%,PUE值可降至1.1以下,全球部署量已超8万套 [5] - 联想集团新发布的“双循环”相变浸没制冷系统,通过创新设计将系统PUE降至1.035 [5] - 更高性能的AI芯片对液冷技术要求更高,同时单机柜散热组件价值也更大,例如英伟达Rubin架构芯片设计功耗(TDP)达2300W,已超出单相冷板液冷技术设计上限,需通过相变式冷板与浸没式方案解决 [6] - 摩根士丹利报告显示,Vera Rubin NVL144平台的散热组件总价比Blackwell架构的GB300 NVL72高出17%,达到约55710美元(约合人民币近40万元) [6] - 目前实现浸没式液冷技术突破的厂商不多,尤其在相变浸没式技术上,仅有中科曙光、联想集团等极少数厂商完成相关研发,这意味着这些厂商能享受“份额+单价”双提升的市场红利 [7] 大模型厂商的竞争格局与产业链绑定 - 谷歌Gemini 3版本在多个性能指标上超过GPT-5.1,使得海外大模型厂商格局从OpenAI一家独大变为OpenAI、谷歌“两强争霸” [8] - 谷歌成功路径(模型+自研TPU芯片)成为样板,引发其他厂商跟进,例如亚马逊推出定制AI芯片Trainium3并通过云服务提供算力,大模型厂商的差异化竞争能力向“模型+底层芯片”双重差异化进化 [9] - 摩根大通上调谷歌TPU芯片出货预期,预计2026年和2027年出货量将分别达到370万颗和500万颗,表明其已在AI底层芯片市场占据一席之地 [9] - 能在应用端与大模型绑定、同时在算力端与其底层芯片适配的合作企业将获得更具确定性的发展前景 [9] - 联想集团在应用端接入谷歌Gemini大模型,其发布的个人超级智能体Lenovo Qira和Chromebook Plus 14成为谷歌应用生态合作的重要案例 [9] - 根据Canalys报告,2025上半年全球Chromebook出货量达1100万台,年增逾一成,联想为Chromebook市场龙头,市占率达31% [10] - 在算力端,联想是谷歌云AI算力基础设施的服务器供应商之一,其液冷技术与谷歌TPU v7芯片的散热需求高度适配 [10] - 联想集团优势不限于绑定单一厂商,其Lenovo Qira智能体采用多模型整合模式(也集成Microsoft Copilot等),并研发智能模型编排技术以匹配最佳模型,同时在算力端与微软、亚马逊等多家主流大模型厂商建立长期定制化服务器合作 [10]
谁说老实人赚不到钱?Claude用一张3500亿的支票打脸OpenAI
36氪· 2026-01-09 10:49
公司估值与融资 - 2026年初计划融资100亿美元,公司估值在半年内从1830亿美元飙升至3500亿美元 [1] - 此次融资与估值飙升被视为一场筹谋5年的“完美反击” [1] 公司起源与理念 - 公司由Dario Amodei和Daniela Amodei兄妹于2021年创立,因理念分歧从OpenAI离职并带走7名核心成员 [2] - 创始团队的核心担忧是AI进化速度超越人类治理能力,安全可能被商业利益牺牲 [5] - 公司初期因专注AI安全而被硅谷视为“理念偏执者”,被认为在算力竞争中自缚手脚 [5] 发展战略与市场定位 - 与OpenAI的激进扩张路线相反,公司选择了专注底层稳定性和安全性的发展道路 [6] - 公司没有急于推出多模态产品,而是深度钻研“宪法AI”技术 [6] - 这种对稳定性和安全性的专注,在2025年成为其赢得企业级市场的关键优势 [6] - 公司被视为核心团队高度统一、专注技术且没有负面新闻的更好投资选择 [6] 财务表现与运营效率 - 公司营收从2023年的1亿美元激增至2025年的9亿美元,3年增长近10倍 [7] - 公司已将2026年营收目标设定在20至26亿美元区间 [7] - 相比之下,OpenAI在2025年的现金消耗接近10亿美元,且2026年年度亏损可能翻倍 [9] - 分析师指出,公司正在凭借实打实的赚钱效率赢得市场 [11] 技术优势与产品性能 - 在开发者社区中,Claude系列模型因其在代码和企业流程中“少出事”而获得青睐 [11] - 在SWE-bench测试中,Claude 4.5 Opus的得分达到80.9%,领先于得分在70%档位的GPT-4o [14] - Claude在理解复杂代码库上下文方面表现优异,具备“少出错、少废话”的工程能力 [14] - 在零售、航空等看重逻辑确定性的TAU-bench测试中,Claude的表现是“统治级”的 [15] - 公司选择持续加码深度、逻辑一致性和可控性,而非分散精力于所有多模态方向 [14] 行业竞争与影响 - 公司与OpenAI在关键决策上选择了完全相反的发展方向 [5] - 到2025年,OpenAI面临核心人才流失率接近25%的困境 [6] - 公司通过融资百亿并反手签下300亿美元算力订单,进行“借鸡生蛋”式扩张 [11] - 分析师判断,OpenAI赢了声浪,但公司正在赢走市场 [11] - 在容错率极低的银行、医疗、航空等领域,企业更倾向于选择行为可预测、稳定的AI系统 [18] - 行业竞争正让通用人工智能(AGI)变得更好用和更值得信赖 [21]