Engram模块
搜索文档
大摩眼中的DeepSeek:以存代算、以少胜多
36氪· 2026-01-22 17:09
文章核心观点 - DeepSeek通过创新的“Engram”模块和“条件记忆”机制,正在改变大语言模型的构建方式,其核心在于将存储与计算分离,从而减少对昂贵高带宽内存的依赖,转而利用性价比更高的普通系统内存,这代表了下一代AI发展的关键方向,即通过更聪明的混合架构而非单纯堆砌算力来提升效率[1] 技术架构创新:Engram模块与条件记忆 - 当前Transformer模型在记忆和调用简单静态事实时效率极低,处理如“伦敦在英国”的简单查询也需要经过多层注意力机制和前馈网络的昂贵计算,浪费GPU资源[3] - DeepSeek引入“条件记忆”原则和Engram模块,将静态模式存储与动态推理分离,将模型的“图书馆”或“字典”卸载到CPU或系统内存中,仅在需要时检索[3] - 这种设计为大语言模型解锁了新的效率水平,Engram是一种在不重载HBM的情况下高效“查找”基本信息的方法,从而释放HBM容量用于更复杂的推理任务[3] - 该架构直接解决了AI基础设施中最昂贵的HBM瓶颈,在现有硬件架构下提升效率,可减少昂贵的硬件升级需求[3] 硬件成本结构重塑:降低HBM依赖,放大DRAM价值 - Engram架构通过将静态存储与动态计算分离,最大限度地减少了对高速内存的需求,基础设施成本可能从昂贵的GPU向更具性价比的DRAM转移[5] - 一个1000亿参数的Engram模型,在FP16/BF16格式下每个参数2字节,意味着最低需要约200GB的系统DRAM[5] - 相比英伟达Vera Rubin系统每个CPU配备的1.5TB DRAM,DeepSeek的架构意味着每台系统对商品化DRAM的使用量将增加约13%[5] - 投资逻辑转向:计算适中但内存巨大的配置,可能比单纯的GPU扩展提供更高的“每美元性能”;内存的价值已延伸至计算之外[5] 中国AI的竞争态势:约束诱导的创新 - 尽管在先进算力、硬件获取和训练规模上受限,中国领先的AI模型在过去两年中迅速缩窄了与全球前沿模型的性能差距[6] - DeepSeek V3.2在标准化基准测试中表现优异:MMLU得分约为88.5%,编码能力约为72%,在推理和效率方面展现出强大竞争力[6] - 中国AI的发展转向算法效率、系统设计和部署实用主义,AI能力的下一次飞跃可能不是来自更多的GPU,而是来自学会在约束条件下思考[6] - 中国AI的进步可能越来越不取决于直接缩小硬件差距,而是取决于绕过硬件瓶颈的算法和系统级创新[7] 未来展望与市场影响 - 利用Engram内存架构,DeepSeek下一代模型V4在发布时将实现重大飞跃,特别是在编码和推理方面[7] - 该模型极有可能在消费级硬件上运行,消费级硬件可能就足够了,这意味着高水平AI推理的边际成本将进一步降低,使AI应用能更广泛部署[7] - 摩根士丹利重申了对中国内存和半导体设备本土化主题的看好[7] - 通过将内存与计算解耦,中国正在构建不仅更聪明而且结构更高效的大语言模型,其市场支出和采用势头表明上行空间可能被低估[7]
大摩眼中的DeepSeek:以存代算、以少胜多!
硬AI· 2026-01-22 15:34
核心观点 - DeepSeek通过其独创的Engram架构与“条件记忆”机制,将存储与计算分离,用高性价比的DRAM置换稀缺的HBM资源,正在改写AI的扩展法则,证明下一代AI的制胜点在于高效的混合架构而非暴力堆砌GPU [2][3][4] 技术架构:Engram模块与“条件记忆” - 当前Transformer模型在记忆和调用简单静态事实时效率极低,处理“伦敦在英国”这类简单查询也需要昂贵的计算 [8] - Engram模块的核心是引入“条件记忆”原则,将静态模式存储与动态推理分离,将模型的静态知识卸载到CPU或系统DRAM中,仅在需要时检索 [9] - 该设计为大语言模型解锁了新的效率水平,是一种无需重载HBM即可高效查找基本信息的方法,从而释放HBM容量用于更复杂的推理任务 [9] - 该架构直接解决了AI基础设施中最昂贵的瓶颈——HBM,通过在现有硬件架构下提升效率,减少昂贵的硬件升级需求 [9] 基础设施经济学影响 - Engram架构通过分离存储与计算,最大程度减少对高速HBM的需求,可能导致基础设施成本从昂贵的GPU向更具性价比的DRAM转移 [12] - 一个1000亿参数的Engram模型(假设FP16/BF16下每个参数2字节)最低需要约200GB的系统DRAM [12] - 相比英伟达Vera Rubin系统每个CPU配备的1.5TB DRAM,DeepSeek的架构意味着每台系统对商品化DRAM的使用量将增加约13% [12] - 投资逻辑转变:成本结构可能从GPU向内存转移;计算适中但内存巨大的配置可能提供更高的“每美元性能”;内存的价值已延伸至计算之外 [13][14][15] 中国AI的“约束诱导创新” - 尽管在先进算力、硬件获取和训练规模上受限,中国领先的AI模型在过去两年迅速缩小了与全球前沿模型的性能差距 [17] - DeepSeek V3.2在MMLU得分约为88.5%,编码能力约为72%,在推理和效率方面展现出强大竞争力 [17] - 中国AI的发展转向算法效率、系统设计和部署实用主义,AI能力的下一次飞跃可能来自学会在约束条件下思考,而非更多GPU [17] - 中国AI的进步可能越来越取决于绕过硬件瓶颈的算法和系统级创新,而非直接缩小硬件差距 [18] 未来展望与硬件门槛降低 - 利用Engram内存架构,DeepSeek下一代模型V4预计在发布时将实现重大飞跃,特别是在编码和推理方面 [20] - 该模型极有可能在消费级硬件上运行,消费级硬件(如RTX 5090)可能就足够,这将进一步降低高水平AI推理的边际成本 [20] - AI应用将能够更广泛地部署,无需完全依赖昂贵的数据中心级GPU集群 [20] - 通过将内存与计算解耦,中国正在构建更聪明且结构更高效的大语言模型,其AI市场的支出和采用势头表明上行空间可能被低估 [21]
DeepSeek新模型曝光?
新华网财经· 2026-01-22 13:00
开源代码与模型动态 - DeepSeek在GitHub上更新了Flash MLA代码库,涉及的114个文件中,有数十处提到了此前未公开的"MODEL1"大模型标识符 [2] - 在部分文件中,"MODEL1"与已知的现有模型"V32"(即DeepSeek-V3.2)并列提及,行业分析认为"MODEL1"可能代表一个不同于现有架构的新模型,或许是DeepSeek还未对外发布的下一代模型(R2或者V4)[4] - 2025年2月,DeepSeek启动"开源周",计划以每日解锁的形式逐步公开5个代码库,Flash MLA为首个开源项目 [3] 技术进展与模型发布计划 - 公开资料显示,Flash MLA通过优化Hopper GPU的内存访问和计算流程,显著提高可变长度序列的处理效率,其核心设计包括动态内存分配机制和并行解码策略,可减少冗余计算并提升吞吐量,尤其适用于大语言模型的推理任务 [3] - 此前有市场消息称,DeepSeek计划在2025年2月春节前后发布新一代AI模型DeepSeek V4,但发布时间可能会视实际情况而变化 [4] - V4模型是DeepSeek 2024年12月发布的V3模型的迭代版,具备强大的编程能力,公司内部的初步测试显示,V4在编程能力上超过了目前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列 [4] 近期研究成果 - 2026年1月以来,DeepSeek动作不断,已陆续发布了两篇技术论文,分别介绍了名为"优化残差连接(mHC)"的新训练方法,以及一种受生物学启发的"AI记忆模块(Engram)" [4] - 2026年1月12日,DeepSeek在GitHub上发表新论文,文章由DeepSeek与北京大学合作完成,作者中有梁文锋署名,文章提出了条件记忆(conditional memory),并给出了实现方案Engram模块,公司称该模块不仅有助于知识检索,同时在一般推理和代码/数学领域方面取得了更大的进步 [5] 公司背景与资金支持 - 在业内看来,梁文锋旗下私募幻方量化较高的收益率,为DeepSeek的研发提供了更多支持 [5] - 公开资料显示,幻方量化2025年的收益均值达56.55%,在中国管理规模超百亿的量化私募业绩榜中位列第二,仅次于以73.51%收益均值登顶的灵均投资,目前,幻方量化管理规模已超700亿元 [5]
大摩眼中的DeepSeek:以存代算、以少胜多!
华尔街见闻· 2026-01-22 10:48
核心观点 - DeepSeek通过创新的“Engram”模块和“条件记忆”机制,将存储与计算分离,减少了对昂贵高带宽内存的依赖,转而利用性价比更高的普通系统内存,正在改写AI的扩展法则,证明高效的混合架构是下一代AI的决胜点 [1] 技术架构创新 - DeepSeek的“Engram”模块基于“条件记忆”原则,将静态模式存储与动态推理分离,将模型的静态知识卸载到CPU或系统内存中,仅在需要时检索,从而大幅减少对HBM的需求 [1][3] - 该架构解决了当前AI基础设施中最昂贵的HBM瓶颈,通过在现有硬件架构下提升效率,有效减少昂贵的硬件升级需求 [3] - 这种设计为大语言模型解锁了新的效率水平,是一种无需重载HBM即可高效查找基本信息的方法,从而释放HBM容量用于更复杂的推理任务 [3] 硬件成本与经济学影响 - Engram架构通过减少对高速内存的需求,使基础设施成本可能从昂贵的GPU向更具性价比的DRAM转移 [5] - 一个1000亿参数的Engram模型在FP16/BF16精度下,最低需要约200GB的系统DRAM [5] - 相比英伟达Vera Rubin系统每个CPU配备的1.5TB DRAM,DeepSeek的架构意味着每台系统对商品化DRAM的使用量将增加约13% [5] - 计算适中但内存巨大的配置,可能比单纯的GPU扩展提供更高的“每美元性能” [7] - 推理能力的提升超过了知识获取的增益,表明内存的价值已延伸至计算之外 [7] 性能表现与行业影响 - 尽管在先进算力等方面受限,中国领先的AI模型在过去两年迅速缩窄了与全球前沿模型的性能差距,这被归结为“约束诱导的创新” [5][6] - DeepSeek V3.2在MMLU基准测试中得分约为88.5%,在编码能力上约为72%,在推理和效率方面展现出强大竞争力 [5][6] - 中国AI的进步可能越来越不取决于直接缩小硬件差距,而是取决于绕过硬件瓶颈的算法和系统级创新 [8] - 通过将内存与计算解耦,中国正在构建不仅更聪明而且结构更高效的大语言模型 [8] 未来展望与市场应用 - 利用Engram内存架构,DeepSeek的下一代模型V4在发布时预计将实现重大飞跃,特别是在编码和推理方面 [8] - 该模型极有可能在消费级硬件上运行,消费级显卡可能就足够,这意味着高水平AI推理的边际成本将进一步降低,使AI应用能更广泛部署而无需完全依赖昂贵的数据中心级GPU [8] - 摩根士丹利基于此技术趋势,重申了对中国内存和半导体设备本土化主题的看好 [8]
计算机行业周报DeepSeek开源含Engram模块,千问助理重塑人机交互
华鑫证券· 2026-01-20 08:30
报告行业投资评级 - 行业投资评级为“推荐(维持)” [1] 报告核心观点 - 人工智能行业正从“纯聊天对话交互”阶段迈入“场景化办事落地”的全新发展阶段,以阿里千问App全面接入生态服务为标志性事件 [3][47] - 基于AI应用单点突破向全场景渗透的积极态势,持续看好AI应用板块 [4][47] - 中长期建议关注在算力、新能源、AI智能识别及工业软件等领域具备优势的特定公司 [4][48] 算力动态 - **Tokens消耗跟踪**:2026年1月12日至18日,周度token调用量为7.65T,环比增长18.97% [11] - **市场份额**:Google以392B tokens占据34.2%的市场份额,位居首位;Anthropic以140B tokens占比12.2%,位列第二;xAI、OpenAI、Deepseek分别占据11.7%、11.0%、8.2%的份额 [11] - **算力租赁价格**:上周价格平稳,例如腾讯云A100-40G配置(16核+96G内存)价格为28.64元/时,阿里云同级别配置价格为31.58元/时,环比均无变化 [17] - **产业动态**:DeepSeek于2026年1月13日开源了包含“Engram”模块的论文及代码 [2][17] - **Engram模块技术价值**:该模块提出“查—算分离”新机制,基于哈希N-Gram嵌入实现O(1)确定性检索,算力消耗低,旨在解决传统Transformer/MoE架构中记忆与推理任务的冲突 [2][17][20] - **技术定位**:Engram模块负责早期记忆检索与模式重构,与负责深层推理的MoE专家形成互补,可显著提升大模型参数效率 [2][22] - **发展预期**:Engram模块可能成为DeepSeek下一代V4模型的核心技术基础,预示其在记忆和推理协同上将实现架构级提升 [23] AI应用动态 - **周流量跟踪**:在2026年1月10日至16日期间,访问量前三的AI应用为ChatGPT(1305.0M)、Bing(780.2M)和Gemini(469.0M);访问量环比增速第一为QuillBot,增长13.20% [25][26] - **平均停留时长**:Character.AI以平均18分16秒位居第一;平均停留时长环比增速第一为文心一言,增长2.96% [25][26] - **产业动态**:阿里千问APP于2026年1月15日正式上线“任务助理”功能,并全面接入阿里生态内超过400项服务功能 [2][27] - **功能升级**:千问APP深度整合淘宝、支付宝、飞猪、高德等应用,用户可通过自然语言指令完成商品下单、支付结算等全流程操作,无需跳转应用 [3][28] - **场景拓展**:该功能支持多品牌跨店铺的复杂需求处理,并能进行旅游规划、调用政务服务(已接入支付宝50项高频民生服务)等 [31][32][47] - **技术架构**:千问采用基于MCP与A2A协议的通用Agent体系,设计主Agent与子Agent协同工作机制,并通过协议层直接对接应用,将功能拆解为原子化指令单元以提高执行准确性与速度 [33][35] - **系统能力**:系统具备“反思”能力,可将执行经验结构化为知识库,并能在遇到少见任务时启动Agentic Learning机制,自主编写并封装新的原子工具 [35] - **行业意义**:此次升级标志着千问完成了从交互工具向任务执行入口的关键转型,验证了AI在真实生活场景中落地的可行性与商业潜力 [4][47] AI融资动向 - **重大融资事件**:机器人通用AI基础模型研发公司SkildAI于2026年1月15日完成14亿美元C轮融资,由软银领投,贝佐斯旗下基金、英伟达等参投,融资后估值突破140亿美元 [2][36] - **公司业务**:SkildAI核心产品为“SkildBrain”通用AI基础模型,采用“硬件无关”架构,旨在适配多种机器人并覆盖多行业场景,以解决训练数据稀缺的痛点 [2][36] - **财务与增长**:截至2025年,SkildAI已实现约3000万美元收入;其估值从2023年种子轮的5840万美元大幅提升至当前的140亿美元 [37] - **行业背景**:2025年全球机器人初创公司共筹集138亿美元,超过2024年的78亿美元;SkildAI的主要竞争对手包括估值56亿美元的Physical Intelligence与估值390亿美元的Figure [37] - **行业趋势**:SkildAI的巨额融资和“硬件无关”架构代表了机器人软件领域的新趋势,反映了AI机器人通用智能体市场的爆发潜力及跨行业应用拓展的态势 [38] 行情复盘 - **指数表现**:上周(2026年1月12日至16日),AI应用指数日涨幅最大为7.06%,日跌幅最大为-1.93%;AI算力指数日涨幅最大为5.23%,日跌幅最大为-4.05% [41] - **个股涨跌**: - AI算力指数内部,润泽科技录得最大涨幅+14.41%,南兴股份录得最大跌幅-14.40% [41][44] - AI应用指数内部,易点天下录得最大涨幅+54.34%,硕贝德录得最大跌幅-9.90% [41][46] 投资建议与关注公司 - **中长期关注公司**: - **迈信林(688685.SH)**:加快扩张算力业务的精密零部件龙头 [4][48] - **唯科科技(301196.SZ)**:新能源业务高增,并供货科尔摩根等全球电机巨头 [4][48] - **合合信息(688615.SH)**:AI智能文字识别与商业大数据领域巨头 [4][48] - **能科科技(603859.SH)**:深耕工业AI与软件,长期服务高端装备等领域头部客户 [4][48] - **公司盈利预测**(数据截至2026年1月19日): - 唯科科技:2025E EPS为2.53元,对应PE为31.62倍;2026E EPS为3.34元,对应PE为23.95倍,评级“买入” [6][50] - 能科科技:2025E EPS为0.96元,对应PE为53.11倍;2026E EPS为1.18元,对应PE为43.21倍,评级“买入” [6][50] - 合合信息:2025E EPS为3.37元,对应PE为90.28倍;2026E EPS为4.11元,对应PE为74.02倍,评级“买入” [6][50] - 迈信林:2025E EPS为1.64元,对应PE为32.68倍;2026E EPS为2.26元,对应PE为23.72倍,评级“买入” [6][50]
计算机行业周报:DeepSeek开源含Engram模块,千问助理重塑人机交互-20260119
华鑫证券· 2026-01-19 22:32
行业投资评级 - 报告对计算机行业维持“推荐”评级 [1] 核心观点 - 报告认为人工智能行业正从“纯聊天对话交互”阶段迈入“场景化办事落地”的全新发展阶段 [3][47] - 阿里千问App的升级标志着其完成了从交互工具向任务执行入口的关键转型验证了AI在真实生活场景中落地的可行性并展示了巨大的商业潜力 [4][47] - 基于单点突破向全场景渗透的积极态势报告持续看好AI应用板块 [4][47] 算力动态 - 上周(2026年1月12日至1月18日)周度token消耗量为7.65T环比增长18.97% [11] - 在tokens规模前五名中Anthropic的ClaudeOpus4.5以623B位居榜首ClaudeSonnet4.5以615B位列第二小米的MiMo-V-Flash以546B排第三xAI的GrokCodeFast1以468B位列第四Google的Gemini3FlashPreview以448B排第五 [11] - 从市场份额看Google以392Btokens占据34.2%的份额稳居首位Anthropic以140Btokens占比12.2%位列第二xAIOpenAIDeepseek则分别以134B126B94.1Btokens对应占据11.7%11.0%8.2%的市场份额 [11] - 上周算力租赁价格平稳例如显卡配置为A100-40G中腾讯云16核+96G价格为28.64元/时阿里云12核+94GiB价格为31.58元/时 [17] - 2026年1月13日DeepSeek开源了含Engram模块的论文及代码该模块提出“查—算分离”机制通过引入可扩展的查找记忆结构在等参数等算力条件下显著提升模型在知识调用推理代码数学等任务上的表现 [2][17] - Engram模块基于哈希N-Gram嵌入实现O(1)确定性检索算力消耗极低其位于Transformer层早期负责模式重构与记忆检索与负责深层推理的MoE专家形成互补极大优化了参数效率 [2][20][22] - Engram模块可能成为DeepSeek即将发布的V4模型的核心技术基础预示其下一代模型将在记忆和推理协同上实现架构级提升 [23] AI应用动态 - 本期(2026年1月10日至1月16日)AI相关网站周访问量前三分别为ChatGPT(1305.0M)Bing(780.2M)和Gemini(469.0M)访问量环比增速第一为QuillBot增长13.20% [25][26] - 平均停留时长前三分别为Character.AI(00:18:16)Discord(00:10:47)和Kimi(00:08:27)平均停留时长环比增速第一为文心一言增长2.96% [25][26] - 2026年1月15日阿里旗下的千问APP正式上线了全新的AIAgent功能“任务助理”并宣布全面接入阿里生态内的超过400项服务功能 [2][27] - 千问App全面接入淘宝支付宝飞猪高德等阿里系生态业务在全球范围内首次实现点外卖网络购物机票预订等AI购物功能的全量用户开放测试 [3][47] - 用户可通过自然语言指令直接完成商品下单支付结算等全流程操作无需跳转至对应应用同时千问App已接入支付宝政务服务端口上线50项高频民生服务 [3][4][47] - 千问在技术架构上采用了基于MCP与A2A协议的通用Agent体系设计了主Agent与子Agent协同工作的机制以提升跨领域长链路的复杂任务的执行精度与可靠性 [33] - 系统具备持续演进能力可将执行经验结构化为知识库供后续任务参考调用在面对少见任务时可启动AgenticLearning机制利用AI编码能力自主编写测试并封装新的原子工具 [35] AI融资动向 - 2026年1月15日SkildAI完成14亿美元C轮融资由软银领投贝佐斯旗下BezosExpeditions英伟达等参投融资后公司估值突破140亿美元 [2][36] - SkildAI核心业务为开发机器人通用AI基础模型“SkildBrain”采用“硬件无关”架构旨在创建一个可适应各种机器人平台的“通用大脑” [2][36] - 截至2025年SkildAI已实现约3000万美元收入展现强劲增长势头 [2][37] - 2025年全球机器人初创公司共筹集138亿美元超过2024年的78亿美元与2021年的131亿美元 [37] - 上周其他AI初创公司融资动态包括Higgsfield完成0.8亿美元A+轮融资目前估值13亿美元MiniMax上市融资7.04亿美元(55.4亿港元换算)目前估值约115亿美元(898亿港元换算) [39][40] 行情复盘 - 上周(2026年1月12日至1月16日)AI应用指数日涨幅最大值为7.06%日跌幅最大值为-1.93%AI算力指数日涨幅最大值为5.23%日跌幅最大值为-4.05% [41] - AI算力指数内部润泽科技以+14.41%录得上周最大涨幅南兴股份以-14.40%录得上周最大跌幅 [41][44] - AI应用指数内部易点天下以+54.34%录得上周最大涨幅硕贝德以-9.90%录得上周最大跌幅 [41][46] 投资建议与关注公司 - 中长期建议关注加快扩张算力业务的精密零部件龙头迈信林(688685.SH) [4][48] - 建议关注新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ) [4][48] - 建议关注AI智能文字识别与商业大数据领域巨头的合合信息(688615.SH) [4][48] - 建议关注深耕工业AI与软件并长期服务高端装备等领域头部客户的能科科技(603859.SH) [4][48] - 报告列出了上述四家公司的盈利预测与估值数据 [6][50]
软件ETF易方达(562930)连续3日获资金净流入,阿里“千问任务助理1.0”上线,AI应用商业化节奏有望提速
新浪财经· 2026-01-15 11:58
软件ETF易方达市场表现 - 截至2026年1月15日盘中,软件ETF易方达(562930)换手率达15.53%,成交额为1.74亿元,市场交投活跃 [1] - 截至1月14日,该ETF最新规模达11.25亿元,最新份额达10.39亿份,创近1年新高 [1] - 近3天该ETF获得连续资金净流入,最高单日净流入3.97亿元,合计净流入8.10亿元 [1] 人工智能技术进展与行业动态 - 2026年1月15日,阿里千问宣布上线“千问任务助理1.0”并开放申请邀测,其核心可执行400多种数字世界任务,包括应用开发、办公、学习辅导等 [1] - 阿里千问已全面接入淘宝、支付宝、飞猪、高德等阿里生态业务,在全球首先实现AI购物功能,如点外卖、买东西、订机票 [1] - DeepSeek发布的Engram模块通过引入可扩展条件记忆机制,显著提升模型知识存储与提取效率,在MMLU、CMMLU、BBH等多个权威评测中实现分数大幅提升 [2] - 该技术将静态知识查询外包至CPU内存以降低计算成本,释放Transformer主干网络算力用于高阶推理,有望推动AI模型向更高层次智能演进 [2] 行业前景与政策驱动 - 长江证券认为,在模型与AI应用快速迭代下,AI应用有望在2026年迎来C端和B端双重突破 [2] - 中邮证券指出,《“人工智能+制造”专项行动实施意见》明确提出到2027年推出1000个工业智能体、打造500个典型应用场景的目标 [2] - 政策引导AI技术向生产控制、工艺优化等环节渗透,工业软件企业正通过“平台+智能体”架构向智能解决方案服务商升级,加速制造业数智化转型 [2] 相关产品概况 - 软件ETF易方达(562930)紧密跟踪中证软件服务指数,该指数选取30只业务涉及软件开发、软件服务等领域的上市公司证券作为样本 [3] - 该ETF旨在反映软件服务产业上市公司证券的整体表现,其联接基金为A/C(019061/019062) [3]
AI“开启办事时代”!千万资金逆市加仓软件龙头ETF(159899),石基信息、广联达强势封板!
搜狐财经· 2026-01-15 11:22
市场动态与资金流向 - 1月15日,软件龙头ETF(159899)盘中下跌1.46%,但成分股石基信息、广联达强势涨停 [1] - 尽管市场震荡,该ETF资金热度不减,盘中获净流入超1300万元,并已实现连续4日资金净流入 [1] 阿里巴巴AI业务进展 - 阿里巴巴于1月15日召开千问产品迭代发布会,计划将地图、外卖、订票、办公、学习、购物、健康等各类生活场景接入千问,强化其“办事”能力 [3] - 千问在C端上线两个月,月活跃用户数已突破1亿,在学生和白领群体中增长尤其迅猛 [3] - 截至2026年1月,阿里云旗下的通义千问系列模型在HuggingFace平台的累计下载量已超过7亿次,成为该平台下载量最高的开源AI系列 [3] - 分析认为,阿里巴巴同时具备国内顶尖的大模型能力和最丰富的大消费生态,可为B端商户提供GEO营销策略落地场景,并围绕生成式AI打造智能消费闭环 [3] AI技术前沿突破 - 1月12日,DeepSeek发布聚焦大模型条件记忆模块的研究成果,提出通过引入可扩展的查找记忆结构(Engram模块),在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现 [3] - 该Engram模块在MMLU、CMMLU、BBH等多个权威评测中均有明显分数提升,技术路径有望为下一代高效大模型提供新方向 [4] - 这一进展凸显了AI底层架构持续优化的潜力,为相关算力基础设施和应用生态带来长期发展机遇 [4] 行业趋势与投资逻辑 - 分析指出,新时代的流量入口将迁移至用户体验更好的AI应用 [3] - AI底层技术的持续突破为算力基础设施和应用生态带来了长期发展机遇 [4]
20cm速递|创业板人工智能ETF国泰(159388)涨近4%,科技主线与AI创新成焦点
每日经济新闻· 2026-01-14 14:11
市场表现与产品 - 创业板人工智能ETF国泰(159388)在1月14日上涨近4% [1] - 该ETF跟踪创业板人工智能指数(970070),单日涨跌幅限制为20% [1] - 指数从创业板市场中选取涉及人工智能技术研发及应用的企业作为样本,覆盖机器学习、自然语言处理等前沿技术领域 [1] - 指数成分股主要集中于信息技术与智能制造行业,具有显著的科技属性和成长性特征 [1] 行业技术进展 - DeepSeek推出的条件记忆模块Engram与混合专家模型(MoE)形成互补 [1] - Engram通过引入可扩展的嵌入表实现高效知识检索,显著提升模型在推理、代码等任务的表现 [1] - Engram模块位于Transformer早期层,释放后续网络层专注于复杂推理 [1] - 现有Transformer缺乏原生检索机制,导致模型需通过多层计算重建静态知识 [1] - Engram与MoE的分工优化(前者负责记忆查找,后者处理神经推理)可提升整体架构效率 [1] - 该技术或为下一代AI基础架构指明方向 [1]
AI人工智能ETF(512930)涨超1.6%,国内大模型进展不断
新浪财经· 2026-01-14 14:10
市场表现 - 截至2026年1月14日13:45,中证人工智能主题指数(930713)强势上涨2.09% [1] - 指数成分股用友网络上涨10.01%,光迅科技上涨9.93%,润泽科技上涨9.32%,中科星图、芯原股份等个股跟涨 [1] - AI人工智能ETF(512930)上涨1.66%,最新价报2.4元 [1] 行业动态与催化剂 - 阿里巴巴将于近期发布Qwen 3.5,其多模态融合理解、Agent、Coding能力等方面有望取得明显进步 [1] - 春节前后,字节、腾讯、DeepSeek等大厂预计还将发布一批新的模型和产品 [1] - DeepSeek发布的Engram模块为大语言模型架构优化提供了新方向,该技术通过引入可扩展的条件记忆机制,在降低计算成本的同时提升模型推理效率 [1] - 实测数据显示,Engram模型在MMLU、CMMLU等知识类任务中分别提升3.4分和4.0分,在BBH复杂推理任务中较同参数基线模型提升高达5.0分 [1] - 千亿级参数表挂载至CPU内存后,模型吞吐量下降不到3%,展现出优异的存算分离能力与商业化潜力 [1] 指数与ETF构成 - AI人工智能ETF紧密跟踪中证人工智能主题指数 [2] - 中证人工智能主题指数选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本 [2] - 截至2025年12月31日,指数前十大权重股分别为中际旭创、新易盛、寒武纪、澜起科技、中科曙光、科大讯飞、海康威视、豪威集团、金山办公、浪潮信息 [2] - 前十大权重股合计占比58.08% [2] - AI人工智能ETF(512930)设有场外联接基金,包括平安中证人工智能主题ETF发起式联接A(023384)、C(023385)、E(024610) [2]