Workflow
算力成本
icon
搜索文档
一天涌入120亿,开年暴涨40%!AI板块的主动权益基金“赚”翻了?
搜狐财经· 2026-01-14 19:05
德邦稳盈增长基金巨额申购事件 - 德邦稳盈增长灵活配置混合基金于1月12日单日通过蚂蚁渠道的申购金额超过120亿元[1] - 截至2025年9月末,该基金管理规模仅为7.24亿元,百亿级申购将导致其规模急剧膨胀[1] - 基金管理人德邦基金回应称盘中规模数据未披露,准确规模需待日终清算确认[1] - 为应对资金涌入,德邦基金宣布自1月14日起,对该基金A类份额和C类份额分别实施10万元和1万元的申购金额限制[1] AI主题基金强劲的业绩表现 - 资金狂热追逐的背后是2025年AI板块极致的赚钱效应[2] - 德邦稳盈增长基金开年以来净值涨幅已达29.48%[2] - 该基金2025年三季报显示,其前十大重仓股高度集中于AI应用板块[2] - 其他重仓AI应用的基金同样表现强劲:申万菱信乐道三年持有年内净值涨幅接近40%(39.70%),西部利得科技创新混合A(34.91%)、申万菱信数字产业股票型发起式A(32.46%)、永赢信息产业智选混合发起A(35.00%)等多只基金同期涨幅超过30%[2][3] AI主题基金行业规模特征 - 拉长时间看,近一年来在重仓信息技术服务业的主动权益基金中,有11只基金涨幅超过70%[3] - 然而,其中仅诺安稳健回报混合A的合并规模超过10亿元,达到14亿元,多数基金规模仍较小[3] 行业限购措施 - 考虑到短期内规模过快增长可能对投资管理带来挑战,为保护现有持有人利益,多家基金公司开始对旗下绩优AI主题产品采取限购措施[4] - 继德邦基金后,永赢基金于1月13日宣布,旗下永赢信息产业智选基金将单日单个账户申购上限设定为100万元[4] - 博时新策略混合等聚焦信息传输、软件及信息技术服务行业的基金目前也处于限购状态[4] AI板块后续投资展望 - 诺安稳健回报混合A基金经理邓心怡表示,2026年将更关注大模型的迭代方向以及与之匹配的环节,包括提高模型能力、具备数据和生态壁垒、提高模型和应用收入天花板、提升推理效率实现成本可控等[5] - 在模型和应用端,关注具备垂类数据优势(尤其是非公域数据)的环节,跟踪其叠加AI能力之后生产力提升和变现的投资机会[5] - 在算力成本端,关注ASIC芯片、国产化芯片、超节点等技术,随着推理需求结构性提升带来的投资机会[5]
DeepSeek开源Engram,如何做到推理损失仅3%?
钛媒体APP· 2026-01-13 16:44
公司近期技术发布 - 公司于1月13日在GitHub开源名为Engram的模块,并发布与北京大学联合撰写的论文,阐述了一种新的大模型稀疏化方向:条件存储(Conditional Memory)[1] - 这是继1月1日发布关于mHC架构的论文后,公司的又一次重要技术发布,两篇论文均体现了公司通过架构与方法论创新来降低算力成本、追求性价比的核心方向[4] - 公司创始人兼CEO梁文锋在两篇论文中均署名,并列于作者最后[4] Engram技术原理与设计 - Engram是一个可微分、可训练、原生嵌入模型结构的组件,其核心设计是将记忆性负载从主干计算中剥离,通过高速检索模块直接调用稳定且高频出现的知识,以规避低效的反复计算[4] - 该模块首先提供确定性检索:模型基于当前token和前文形成的N-gram,通过哈希映射直接从超大规模的静态嵌入表中取出对应向量,无需复杂神经计算,速度更快、路径稳定[4] - 随后,Engram会通过引入轻量化门控机制,由当前层的隐藏状态来判断检索到的记忆是否适合当前语境,避免生硬注入,从而优化输出表现[6] - 实验表明,该机制在处理时间、专有名词等固定模式时高度活跃,而在自由生成和复杂推理时几乎不介入,这强化了记忆功能的同时,避免了不合时宜的幻觉出现[6] 公司提出的新架构维度 - 公司将大模型能力拆分为三个相互独立又协作的维度:决定逻辑与抽象能力的模型深度、以MoE为代表的计算稀疏性(减少每次激活的计算量)、以及Engram引入的存储稀疏性(条件记忆)[6] - 公司通过U型扩展定律解决了记忆模块可能影响计算与推理性能的平衡问题,在总参数和算力预算固定的情况下,系统调整MoE与Engram的比例,得出将20%至25%的稀疏参数分配给Engram是最优平衡点[6] - 测试数据显示,即便挂载规模高达千亿参数的Engram记忆库,推理吞吐损失也能控制在3%以内[7] 行业竞争与公司未来产品 - 据The Information援引知情人士消息,公司预计将在今年中国春节前后发布最新的V4模型,核心突破在于超长代码提示词的处理与解析能力,以及全流程训练中数据模式的理解力[7] - 新模型不仅推理性能将大幅提升,更擅长处理复杂任务,其编码能力是主打方向,内部初步测试结果据称已超越了Anthropic的最强编程模型Claude[7] - 竞争对手Anthropic为守护编程能力优势和入口通道,近期已陆续切断Claude Code的第三方平台入口,并于1月12日发布主打办公场景Agent落地的产品Cowork,可自动帮助用户完成制作PPT、整理邮件等工作[7] - 市场期待即将到来的公司旗舰新品能再次带来“DeepSeek春节冲击波”[7]
“AI教母”,公布最新世界模型
财联社· 2025-10-17 20:28
世界模型RTFM的技术突破 - 李飞飞团队发布全新世界模型RTFM,能够实时生成交互式三维世界[2] - 模型设计围绕效率、可扩展性和持久性三大原则,仅需单块H100 GPU即可渲染持久一致的3D世界[2] - 实现4K+60FPS交互式视频流,传统架构需每秒生成超过十万个token,相当于一本《弗兰肯斯坦》的文本量,当前算力下经济上不可行[2] AI算力成本与需求趋势 - 降低算力成本成为硬件厂商重要议程,OpenAI与博通战略合作部署10吉瓦AI加速器,形成英伟达、AMD、博通多元算力体系以倒逼成本下降[3] - 尽管模型效率提升,但算力总需求预期未减,存在“杰文斯悖论”,即效率提升反而增加总消耗量,例如DeepSeek R1性能增强但算力需求持续增长[4] - 预计针对更大推理预算的更大型模型将继续改进,未来算力需求增长预期稳固[3] 世界模型的行业进展与意义 - World Labs在9月发布世界生成模型Marble,可通过单张图片或文字生成3D世界,相比前代实现更优几何结构和更多样化风格[4] - 世界模型的意义在于不仅能理解推理文字信息,还能理解推理物理世界的运作规律[4] - 行业公司积极布局,xAI从英伟达挖来专家,Meta、谷歌加注世界模型,国内宇树、智元等机器人厂商也已开源其世界模型[4] 算力基础设施的估值逻辑 - 算力更便宜易得时,开发者会将更复杂模型系统作为新基准,提升参数量、上下文与并行度[5] - 模型架构迭代可能减小单次推理训练算力,但如Genie3等生成视频的世界模型需跨数量级算力提升才能满足[5] - AI算力更高的天花板和更好的竞争格局将支撑其相对4G/5G的更高估值框架和更强Beta[5]
26天倒计时:OpenAI即将关停GPT-4.5Preview API
36氪· 2025-06-18 15:34
公司动态 - OpenAI宣布将于7月14日正式移除GPT-4.5 Preview API [2] - GPT-4.5预览版将继续作为选项提供给个人ChatGPT用户使用 [5] - OpenAI早在4月发布GPT-4.1时就已公布移除计划,GPT-4.5始终是实验性产品 [5] 开发者影响 - 开发者需在27天内从近40个模型中寻找替代品 [3] - 迁移涉及提示词重标定、延迟与费用模型重算及向客户解释语气变化 [8] 商业策略 - GPT-4.5 API定价高昂,输入tokens为75美元/百万,输出tokens为150美元/百万 [6] - OpenAI降低o3 API价格80%,集中资源推广成本可控的主力模型 [8] - 公司战略聚焦规模效应和成本优化,舍弃定位模糊的边缘产品 [8] 财务与估值 - OpenAI在2025年3月完成400亿美元融资,由软银主导,估值达3000亿美元 [11] - 高估值依赖领先模型溢价和渠道议价能力,但模型迭代速度和算力成本构成天花板 [11] 技术背景 - GPT-4.5使命是为未来模型迭代提供创意和写作细微之处的经验 [5] - NVIDIA H100 GPU市价约2.5万美元,满载功耗700W [6] - ChatGPT Plus仍按20美元/月收费,公司需优化算力分配 [6]
对话红帽全球副总裁曹衡康:AI成本下降了 芯片的量一定会起来
每日经济新闻· 2025-06-14 17:02
AI推理技术发展现状 - 行业共识认为算力成本终将降低,但降低路径尚未统一,主要选项包括数据中心、一体机和推理服务器[1] - 红帽全球副总裁曹衡康提出2025年是AI推理元年,标志着AI应用将正式上线运行并为企业创造实际价值[1] - 当前推理技术栈存在两个主流方向,红帽选择vLLM框架作为其技术路线,该框架已成为开源领域事实标准[1] 中国在AI推理领域的参与 - 在vLLM社区中,中国贡献者占比达到35%,显示中国在推理技术领域的活跃参与[1] - 红帽高管认为中国可能成为最先实现企业价值的AI推理市场[1] 技术挑战与解决方案 - 当前面临两大技术难点:如何以最小硬件成本实现高性能推理,以及如何实现分布式推理引擎[1] - 红帽2025年推出推理服务器解决方案,主要优势在于降低企业算力成本[2] - 公司明确战略定位为纯软件提供商,不涉足硬件领域[2] 行业需求展望 - 随着AI应用成本降低,预计使用AI的企业数量将从1000家增长至1万-100万家规模[2] - 行业高管预判GPU需求量将随AI普及而显著增长[2] - 当前重点在于降低AI使用门槛以促进更广泛采用[2]