Workflow
Engram
icon
搜索文档
AI、半导体:台积电大幅提升2026年资本开支
华金证券· 2026-01-18 13:55
行业投资评级 - 领先大市(维持)[1] 核心观点 - 人工智能硬件需求持续强劲,推动半导体行业周期向上,看好从设计、制造、封测到上游设备材料的全产业链机会[3][34] - 通用人工智能将成为未来十年最具变革性的技术驱动力,预计到2035年全社会算力总量将实现高达10万倍的增长[3][34] - 下游需求持续回暖,上游原材料价格上行,持续看好AI PCB产业链[3][34] 行业动态总结 - **台积电业绩与展望**:2025年第四季度营收337.3亿美元,同比增长25.5%,环比增长1.9%;毛利率62.3%,同比提升3.3个百分点;净利润5057.4亿新台币,同比增长35.0%,净利率达48.3%[3][6] - **台积电业务结构**:先进制程(3nm和5nm)合计占第四季度营收63%,全年占比60%;高性能计算(HPC)平台占第四季度营收55%,全年占比58%,成为最大收入来源;智能手机占第四季度营收32%,全年占比29%[3][6] - **台积电资本开支**:预计2026年资本支出为520亿美元至560亿美元,较2025年总计409亿美元大幅提升[3][6] - **千问APP升级**:全面接入阿里生态,上线超400项AI办事功能,并接入50项支付宝政务服务,其能力提升源于底层技术在编码、全模态理解和超长上下文处理方面的突破[3][6][7] - **DeepSeek技术突破**:提出新的“条件记忆”机制Engram,在训练计算量较MoE减少18%的情况下,于32768个token的长上下文任务中性能反超同参数量MoE模型[3][7][8] 行情回顾总结 - **电子行业表现**:在2026年01月12日至01月16日期间,电子行业周涨幅为3.77%,在申万一级行业中涨幅居前[9] - **细分板块表现**:同期,申万三级电子行业细分板块中,集成电路封测板块涨幅最大,上涨14.47%;仅LED板块下跌,跌幅0.10%[11] 行业高频数据跟踪总结 - **TV面板价格**:预计2026年1月价格将温和上涨,32英寸、50英寸、55英寸面板预计均小幅上涨1美元[14][15] - **Monitor面板价格**:预计2026年1月Monitor LCM面板价格整体保持稳定,23.8英寸FHD IPS Open cell及27英寸FHD IPS Open cell价格预计环比上涨0.2美元[16][18] - **Notebook面板价格**:预计2026年1月笔记本电脑面板价格竞争加剧,部分IPS FHD&FHD+产品价格预计小幅下跌0.2美元[16][18] - **存储器价格**:在2026年01月12日至01月16日期间,多种DRAM颗粒现货价格呈现上涨趋势,例如DDR5 16G(2Gx8)4800/5600价格从32.500美元上涨至35.000美元;DDR4 16Gb(1Gx16)3200价格从70.500美元上涨至76.125美元[19] 投资建议总结 - **半导体全产业链**:建议关注中芯国际、华虹公司、寒武纪-U、海光信息、芯原股份、盛科通信-U、长电科技、通富微电、甬矽电子等[3][34] - **存储全产业链**:持续看好,重点标的包括兆易创新、德明利、江波龙、香农芯创、佰维存储、普冉股份、聚辰股份等[3][34] - **AI PCB产业链**:持续看好胜宏科技、沪电股份、生益电子、鹏鼎控股、景旺电子、东山精密、生益科技等[3][34]
腾讯研究院AI速递 20260114
腾讯研究院· 2026-01-14 00:29
Anthropic发布AI办公助手Cowork - 公司发布AI办公神器Cowork,复用Claude Code底层逻辑,可创建文档、制定计划、分析数据并自动整理桌面文件 [1] - Cowork具备主动性与自主性,能自主制定计划并实时同步进度,支持连接器整合外部信息源并与Chrome联动,Claude Max用户可在macOS应用抢先体验 [1] - 该工具由团队仅用一周半开发完成,Claude Code编写了100%的代码,默认需用户明确授权且可随时叫停 [1] 苹果与Google达成AI合作协议 - 苹果与Google达成多年深度合作协议,下一代苹果基础模型将基于Gemini构建,新版Siri将基于Gemini彻底重造,数据通过私有云计算运行以保护隐私 [2] - 苹果AI团队面临严重人才流失,100多人团队已有数十名核心成员跳槽,Gemini拥有1.2万亿参数远超苹果现有1500亿参数,合作成为按时交货的必然选择 [2] - Google每月处理1.3千万亿Tokens,Gemini全球市场份额突破20%,马斯克批评这是权力过度集中,OpenAI地位从默认智能层降为辅助角色 [2] DeepSeek发布条件记忆模块Engram - DeepSeek发布新论文提出条件记忆Engram模块,与MoE条件计算互补,通过O(1)时间复杂度完成知识查找,解决Transformer缺少原生知识查找机制的问题 [3] - Engram将270亿参数扩展至等参数等FLOPs条件下显著优于纯MoE基线,MMLU提升3.4、BBH提升5.0、HumanEval提升3.0,长上下文检索准确率从84.2%提升至97.0% [3] - 结合元旦期间公布的mHC研究,DeepSeek V4的模样愈发清晰,条件记忆将成为下一代稀疏大模型核心建模原语,支持从主机内存预取且几乎无性能开销 [3] OpenAI收购AI医疗初创公司Torch - OpenAI以约1亿美元(约合人民币6.79亿元)收购AI医疗初创公司Torch,其中6000万美元立即兑现,其余用于员工留任激励 [4] - Torch支持接入Kaiser Permanente、Apple Health等医疗系统数据,统一查看实验室检测结果、处方信息及就诊记录,并通过AI进行归类整理和健康洞察 [4] - Torch四人创始团队全部加入OpenAI参与构建ChatGPT Health模块,此前曾创办并运营线上诊所平台Forward,于2024年末关闭后创立Torch [4] Anthropic推出医疗级AI服务 - Anthropic推出符合HIPAA标准的医疗级AI服务,允许医院医疗机构及个人用户在合规前提下处理受保护健康数据,明确引用PubMed、NPI注册表等权威数据库 [5][6] - Claude支持从Apple Health、Function Health等应用导出个人健康数据进行汇总和理解,承诺不使用任何医疗用户数据训练模型 [6] - 美国最大非营利医疗系统之一Banner Health已有超22000名临床服务提供者使用Claude,85%使用者认为工作效率提升,与诺和诺德、斯坦福医疗保健等机构展开合作 [6] 百川开源医疗大模型Baichuan-M3 - 百川开源Baichuan-M3医疗大模型,在HealthBench以65.1分综合成绩位列全球第一,HealthBench Hard以44.4分夺冠,全面超越GPT-5.2,幻觉率3.5%全球最低 [7] - M3首次具备原生端到端严肃问诊能力,提出SCAN原则(安全分层、信息澄清、关联追问、规范化输出),问诊能力显著高于真人医生平均水平 [7] - M3采用全动态Verifier System升级强化学习系统,设计新SPAR算法解决长对话训练问题,医疗应用百小应已同步接入M3面向医生与患者开放 [7] OpenAI计划量产特殊音频硬件Sweetpea - OpenAI硬件项目To-go确认为取代AirPods的特殊音频产品,内部代号Sweetpea,富士康已接到通知要求在2028年第四季度前为五款设备做好量产准备 [8] - 该设备由Jony Ive团队设计,主机采用金属材质外形酷似卵石,内部装有两个胶囊状单元可佩戴耳后,主处理器目标锁定2nm制程芯片让AI推理在本地运行 [8] - 预计2026年9月发布,第一年预估出货量4000-5000万部(AirPods年出货量约6000-7000万),定制芯片允许用户通过指令控制替代iPhone操作 [8] 美团发布稀疏注意力机制LoZA - 美团LongCat系列发布稀疏注意力机制LoZA,将50%低性能MLA模块替换为流式稀疏注意力SSA,形成ZigZag交错结构,计算复杂度降至线性级O(L·S) [9] - 处理128K上下文解码速度比原版快10倍,256K上下文预加载速度快50%解码阶段省30%算力,LongCat-Flash-Exp解锁1M上下文窗口,性能超越Qwen-3 [9] - LoZA无需从头训练在中期训练阶段即可完成改造,每个窗口包含1个全局块和7个局部块(单块128Token),设计1024Token稀疏窗口兼顾局部细节与整体逻辑 [9] 2026年十大突破性技术趋势 - MIT科技评论发布2026年十大突破性技术,涵盖超大规模AI数据中心、钠离子电池、碱基编辑、机制可解释性、先进核反应堆等十大方向 [10] - 其中,超大规模数据中心吞噬超1吉瓦电力足以供整座城市使用,钠离子电池已在特定车型应用,碱基编辑首例N=1定制治疗成功 [11] - 报告特别关注AI发展从“能做什么”转向“该做什么”,生命科学在伦理争议中持续突破认知边界,技术与伦理平衡成为核心议题 [11] AI内容生成趋势与价值 - Fal平台CEO透露生成5秒24帧视频算力消耗是生成200个token文本的12000倍,4K分辨率再增10倍,顶级视频模型半衰期仅30天 [12] - Fal平台支持600多个生成式媒体模型,前100名客户平均同时使用14个不同模型,团队认为动画、动漫或卡通类内容会最先实现AI生成规模化 [12] - 对话认为当内容生成变得无限时有限IP反而更有价值,视频模型架构需提升10-100倍才能实现4K实时生成,教育和个性化广告是最具潜力应用场景 [12]
梁文锋署名DeepSeek最新论文,提出新方法突破GPU内存限制
新浪财经· 2026-01-13 20:33
核心观点 - 中国AI初创公司DeepSeek与北京大学研究人员合作,提出了一种名为“Engram”的新模型训练技术,旨在绕过GPU内存限制,实现参数扩展并提升成本效率 [1][3] - 该技术通过将计算与存储解耦,提升模型处理长上下文和复杂推理的效率,并在一个270亿参数的模型中验证了其有效性,使主要行业基准测试表现提升几个百分点 [4] - 行业观察指出,DeepSeek凭借其低成本、高效率的模型(如DeepSeek-R1)在全球市场,特别是新兴市场快速普及,正对美国AI公司构成竞争压力,并预计将在2025年2月中旬发布具备强大编程能力的新V4模型 [6][7] 技术突破 - 提出“基于可扩展查找的条件记忆”技术,命名为“Engram”,用以解决扩大AI模型规模时GPU高带宽内存容量有限的关键瓶颈 [3][4] - 该技术将计算与存储“解耦”,让模型更高效地“查找”基础信息,从而节省“序列深度”以用于更高层次推理 [3][4] - 在一个拥有270亿个参数的模型中验证,使主要行业基准测试的表现提升了几个百分点,并为执行计算需求更高的复杂推理保留了更多容量 [4] - 研究人员认为条件记忆将成为下一代稀疏模型中不可或缺的建模原语,其潜在影响被比作他们自己开发的“混合专家”技术 [4] - 开源开发者平台Hugging Face的研究工程师称赞该论文“在推理和训练时用硬件上验证了这一技术” [6] 公司动态与市场影响 - DeepSeek创始人梁文锋与北京大学研究人员共同署名发表该技术论文,论文列出了14位共同作者 [1][6] - 公司去年年初发布的DeepSeek-R1大模型,使用英伟达H800 GPU进行训练,仅用两个月完成,成本为550万美元,仅为OpenAI等美国公司所花费金额的一小部分,但实现了足以匹敌美国顶尖AI模型的效果 [6] - 微软总裁布拉德·史密斯警告,美国AI公司正被中国竞争对手超越,中国低成本的“开源”模型是一大优势,并指出DeepSeek的技术在非洲等新兴市场快速普及 [6][7] - 微软的一项新研究发现,DeepSeek的R1模型因其“易用性和低成本”,帮助加速了AI在全球范围内的普及,尤其是在全球南方国家,这让中国在“开源”AI模型的全球市场份额方面超越了美国 [7] - 外界猜测公司将在2025年春节(2月中旬)之前发布一款重要的新模型,据称是一款具备强大编程能力的新V4模型 [1][7] 行业背景与竞争格局 - 香港《南华早报》指出,HBM是中国在AI硬件方面与美国之间最大的差距之一,中国存储芯片巨头长鑫存储仍然比韩国的三星电子和SK海力士以及美国的美光科技等行业领军者落后数年 [4] - 此举凸显了DeepSeek在算力相对美国行业领先企业存在差距的情况下,持续专注于最大限度地提高成本效率 [1] - 行业中最大的模型拥有数万亿个参数 [6] - 在过去一年中,DeepSeek一直是中国AI领域创新的典范 [1]
梁文锋署名DeepSeek新论文,“突破GPU内存限制”
观察者网· 2026-01-13 20:28
公司技术进展 - 中国AI初创公司DeepSeek与北京大学研究人员合作,提出了一种名为“Engram”(记忆痕迹)的“条件记忆”新技术 [1][2] - 该技术旨在通过将计算与存储“解耦”,绕过GPU高带宽内存(HBM)容量限制,解决扩大AI模型规模时的关键瓶颈 [2][3] - 新技术能够提升模型在处理长上下文时的效率,这是将AI聊天机器人转变为现实世界中有用代理的主要挑战之一 [3] - 研究人员在一个拥有270亿个参数的模型中验证了该技术,使主要行业基准测试的表现提升了几个百分点,并为执行更复杂的推理保留了更多容量 [3] - 研究人员认为条件记忆将成为下一代稀疏模型中不可或缺的建模原语,并将其潜在影响比作此前开发的、已被其他中国竞争对手采用的“混合专家”技术 [4] - 开源开发者平台Hugging Face的研究工程师称赞该论文“在推理和训练时用硬件上验证了这一技术” [6] 公司发展动态与行业地位 - 外界猜测DeepSeek将在今年春节(2月中旬)之前发布一款重要的新模型 [1][7] - 美国硅谷媒体The Information报道称,DeepSeek预计将在2月中旬推出一款具备强大编程能力的新V4模型 [8] - 去年年初,DeepSeek发布的DeepSeek-R1大模型使用英伟达H800 GPU进行训练,仅用两个月完成,成本为550万美元,仅为OpenAI等美国公司所花费金额的一小部分,却实现了足以匹敌美国顶尖AI模型的效果 [6] - 微软总裁警告称,在争夺西方以外用户的竞争中,美国AI公司正被中国竞争对手超越,中国低成本的“开源”模型是一大优势 [6] - 微软的一项新研究发现,DeepSeek的R1模型因其“易用性和低成本”,帮助加速了AI在全球范围内的普及,尤其是在全球南方国家,这让中国在“开源”AI模型的全球市场份额方面超越了美国 [7] - 微软总裁指出,中国AI初创公司DeepSeek的技术在非洲等新兴市场快速普及,凸显了美国公司面临的全球竞争,并称中国现在拥有不止一个具有竞争力的开源模型 [7] 行业背景与挑战 - DeepSeek在算力相对美国行业领先企业存在差距的情况下,持续专注于最大限度地提高成本效率 [1] - HBM是中国在AI硬件方面与美国之间最大的差距之一,中国存储芯片巨头长鑫存储仍然比韩国三星、SK海力士及美国美光科技等行业领军者落后数年 [3] - 行业中最大的模型拥有数万亿个参数 [6]
DeepSeek开源Engram,如何做到推理损失仅3%?
钛媒体APP· 2026-01-13 16:44
公司近期技术发布 - 公司于1月13日在GitHub开源名为Engram的模块,并发布与北京大学联合撰写的论文,阐述了一种新的大模型稀疏化方向:条件存储(Conditional Memory)[1] - 这是继1月1日发布关于mHC架构的论文后,公司的又一次重要技术发布,两篇论文均体现了公司通过架构与方法论创新来降低算力成本、追求性价比的核心方向[4] - 公司创始人兼CEO梁文锋在两篇论文中均署名,并列于作者最后[4] Engram技术原理与设计 - Engram是一个可微分、可训练、原生嵌入模型结构的组件,其核心设计是将记忆性负载从主干计算中剥离,通过高速检索模块直接调用稳定且高频出现的知识,以规避低效的反复计算[4] - 该模块首先提供确定性检索:模型基于当前token和前文形成的N-gram,通过哈希映射直接从超大规模的静态嵌入表中取出对应向量,无需复杂神经计算,速度更快、路径稳定[4] - 随后,Engram会通过引入轻量化门控机制,由当前层的隐藏状态来判断检索到的记忆是否适合当前语境,避免生硬注入,从而优化输出表现[6] - 实验表明,该机制在处理时间、专有名词等固定模式时高度活跃,而在自由生成和复杂推理时几乎不介入,这强化了记忆功能的同时,避免了不合时宜的幻觉出现[6] 公司提出的新架构维度 - 公司将大模型能力拆分为三个相互独立又协作的维度:决定逻辑与抽象能力的模型深度、以MoE为代表的计算稀疏性(减少每次激活的计算量)、以及Engram引入的存储稀疏性(条件记忆)[6] - 公司通过U型扩展定律解决了记忆模块可能影响计算与推理性能的平衡问题,在总参数和算力预算固定的情况下,系统调整MoE与Engram的比例,得出将20%至25%的稀疏参数分配给Engram是最优平衡点[6] - 测试数据显示,即便挂载规模高达千亿参数的Engram记忆库,推理吞吐损失也能控制在3%以内[7] 行业竞争与公司未来产品 - 据The Information援引知情人士消息,公司预计将在今年中国春节前后发布最新的V4模型,核心突破在于超长代码提示词的处理与解析能力,以及全流程训练中数据模式的理解力[7] - 新模型不仅推理性能将大幅提升,更擅长处理复杂任务,其编码能力是主打方向,内部初步测试结果据称已超越了Anthropic的最强编程模型Claude[7] - 竞争对手Anthropic为守护编程能力优势和入口通道,近期已陆续切断Claude Code的第三方平台入口,并于1月12日发布主打办公场景Agent落地的产品Cowork,可自动帮助用户完成制作PPT、整理邮件等工作[7] - 市场期待即将到来的公司旗舰新品能再次带来“DeepSeek春节冲击波”[7]
DeepSeek发布梁文锋署名新论文
券商中国· 2026-01-13 14:25
DeepSeek发布新论文与开源模块 - 公司于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》[1] - 该论文由北京大学与公司共同完成,合著作者署名中出现梁文锋[1] - 论文提出“条件记忆”新方法,通过引入可扩展的查找记忆结构来增强大型语言模型[1] - 在等参数、等算力条件下,该方法能显著提升模型在知识调用、推理、代码、数学等任务上的表现[1] - 公司同步开源了相关记忆模块,命名为Engram[1] 论文的技术核心与影响 - 论文聚焦于大型语言模型稀疏性的新维度,即“基于可扩展查找的条件记忆”[1] - 该技术为行业提供了一种在不大幅增加计算资源消耗的前提下,提升模型多任务性能的新路径[1]
DeepSeek V4路线图隐现?梁文锋署名重磅论文发布,聚焦大模型条件记忆模块
金融界· 2026-01-13 12:38
论文核心研究成果 - 公司发布与北京大学联合完成的论文,提出“条件记忆”作为下一代稀疏大模型中不可或缺的核心建模原语 [1][4] - 论文核心洞察指出,大模型承担着组合推理与静态知识检索两类性质迥异的任务,而现有Transformer架构缺乏原生知识查找机制,导致调用固定知识时仍需低效计算,耗时且占用资源 [4] - 公司团队提出通过名为Engram的条件记忆模块来优化神经计算(MoE)与静态记忆之间的权衡关系,旨在为大模型实现“分工优化”,由Engram模块负责固定知识存储,推理模块专注复杂思考 [5] - 团队发现了“U型缩放定律”,表明在MoE专家与Engram记忆之间进行混合稀疏容量分配,效果显著优于纯MoE基准模型 [5] - 尽管记忆模块设计初衷是提升知识检索效率,但团队在通用推理、代码及数学等领域均观察到更为显著的性能提升 [5] 下一代模型V4的行业预期 - 结合此前“DeepSeek下一代旗舰模型V4将于春节前后发布”的爆料,业内普遍猜测近期连续披露的研究成果或已勾勒出V4模型的核心研究路线图 [1] - 公司在论文中强调条件记忆将成为下一代稀疏模型的核心建模原语,让行业进一步猜测该技术或正是DeepSeek V4模型的核心技术架构 [5] - 此前报道称,公司计划于2月发布新一代旗舰模型V4,内部初步测试显示其编程能力已超越市场现有顶级模型,但发布计划可能根据实际情况调整 [6] - 自2024年底发布V3模型后,其下一代旗舰模型备受行业关注,去年底推出的V3.2小版本更新曾在多个基准测试中超越OpenAI的GPT-5及Google的Gemini 3.0 Pro [6] - 业内普遍认为,V4模型的正式推出有望成为行业焦点事件 [6]
DeepSeek发布梁文锋署名新论文
新华网财经· 2026-01-13 11:52
DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》 (基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。 该论文为北京大学与DeepSeek共同完成,合著作者署名中出现梁文锋。论文提出条件记忆(conditional memory),通过引入可扩展的 查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。同时,DeepSeek开源相关记忆模 块Engram。 来源:财联社 关注" 新华网财经 "视频号 更多财经资讯等你来看 闫学晶,又一代言被终止 卖爆了!山姆499元羽绒服,多地门店已断货 往期推荐 ...
DeepSeek发布梁文锋署名新论文
证券时报· 2026-01-13 11:02
论文发布与核心技术创新 - DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》[1] - 该论文由北京大学与DeepSeek共同完成,合著作者署名中出现梁文锋[1] - 论文提出“条件记忆”新方法,通过引入可扩展的查找记忆结构来增强大型语言模型[1] 技术原理与性能提升 - 新方法在模型参数总量和计算力消耗保持不变的条件下,显著提升了模型性能[1] - 性能提升主要体现在知识调用、推理、代码生成和数学任务等多个关键任务上[1] 开源与生态建设 - DeepSeek同步开源了与论文相关的记忆模块,命名为Engram[1]
王兴、张一鸣、梁文锋有一个共同特征
搜狐财经· 2026-01-13 10:48
DeepSeek发布新技术与创始人风格分析 - DeepSeek开源全新架构模块Engram,并同步发布技术论文,创始人梁文锋署名其中 [2] - 多位观察者推测,Engram很可能成为DeepSeek下一代模型V4的核心技术基础 [2] 创始人梁文锋的个人特质 - 创始人梁文锋鲜少在公开场合高谈阔论,保持低调风格,专注产品和技术 [2] - 罗永浩评价梁文锋带着极大的好奇心,非常认真地把问题追问到底 [2] - 梁文锋功成名就后保持朴素本色,相比享受生活,更喜欢工作并努力克服挑战 [2] 新一代科技公司创始人的共同特征 - 罗永浩指出梁文锋与王兴、张一鸣等新一代科技公司创始人相似,交流时不似商人或大佬,更像个学生 [2] - 这些创始人尽管成就显著,但穿衣打扮和言谈举止都非常朴素 [2] 美团创始人王兴的务实作风 - 美团掌门人王兴没有自己的独立办公室,与员工坐在一起办公 [4] - 王兴不允许员工称其王总,而是称呼兴哥 [4] - 王兴工位杂乱,配备三台电脑,反映其工作异常繁忙 [4] 字节跳动创始人张一鸣的管理理念 - 字节跳动创业初期,张一鸣与员工一起用餐,公司内不提倡使用“总”、“老大”、“老板”等称呼 [4] - 张一鸣希望提倡平等、坦诚的作风,认为层级观念会抑制表达和创新 [4] - 张一鸣常驻新加坡,但依然花大量时间与研究人员打交道,关注AI业务 [6] - 业内人士透露,AI创业者约见张一鸣只需一周,而以前创业团队见张一鸣要排队一个月 [6] 创始人对技术与业务的态度 - 尽管字节跳动业务版图扩大,张一鸣依然对前沿技术保持敏感度和热情,在享受生活方面没有太大追求 [6] - 梁文锋、王兴、张一鸣等企业家始终保持低调务实的风格,在各自领域不惧竞争、实力在线 [6]