Workflow
大语言模型
icon
搜索文档
DeepSeek冲击一年,中国大模型超1500种
日经中文网· 2026-01-26 11:12
中国AI行业崛起与市场冲击 - 中国新兴AI公司DeepSeek在2025年1月给市场带来冲击 自那之后 中国AI企业数量不断增加 [2] - 中国AI发展走自主路线 寻求不同的最佳解决方案 而非追随美国 [2] - 2025年1月27日 DeepSeek在苹果免费APP下载排行榜上超过OpenAI的ChatGPT 跃居首位 [2] 中国AI模型性能与市场认可 - DeepSeek以有限的计算资源和低成本显示出很高的推理性能 [4] - 在美国Artificial Analysis公布的全球大语言模型排名中 DeepSeek排在第10位 其数学推理能力和性价比受到好评 [6] - 中国月之暗面开发的Kimi和MiniMax等AI模型在全球排名中紧随DeepSeek之后 [7] - 截至2026年1月 阿里巴巴的AI模型千问系列在Hugging Face平台的累计下载量超过7亿次 成为该平台下载量最多的开源AI [7] 资本市场反应与公司表现 - 市场担心不再需要最尖端半导体 2025年1月27日美国英伟达股价一度比上一交易日下跌18% [4] - 阿里巴巴股价较2025年1月底上涨约9成 总市值增加约1.5万亿港元 [7] - 美国摩根士丹利认为 阿里巴巴云服务在2026年度收益将同比增长超过35% 2027年度可能加速至40% [7] - 2026年1月14日 智谱发布在华为平台上开发的国产图片生成式AI 其股价在香港市场一度上涨22% [8] 行业发展模式与阶段 - 中国企业战斗方式与美国不同 美国AI以最尖端GPU和巨额投资为前提 中国则以效率化 轻量化为核心确保竞争力 [7] - 中国政府呼吁在各行各业广泛应用AI 并积极推动其社会落地 [8] - 中国新兴AI企业正跨越验证阶段 进入产业化和资本回收阶段 [8] - 2025年年底以来 从计算资源到应用的中国大陆相关企业纷纷在香港上市 包括GPU厂商壁仞科技 AI企业MiniMax和智谱华章 AI制药企业英矽智能等 [8] 技术自主与供应链挑战 - 有报道称 没有英伟达最先进的半导体 DeepSeek的新模型就无法开发 出口管制的威胁仍未完全消除 [8] - 智谱发布的国产图片生成式AI 是从获取数据到学习的全部过程都自主完成 是仅使用中国国产半导体学习的首个最先进的多模态模型 [8] - 对纯中国产AI的评估才刚刚开始 2026年中国AI股的狂热似乎仍将持续 [9]
DeepSeek——少即是多
2026-01-26 10:49
涉及的行业与公司 * **行业**:人工智能(AI)行业、半导体设备行业、存储供应链 [1][3][12] * **公司**: * **AI公司**:DeepSeek [1][8][15] * **投资标的(中国半导体设备与存储主题)**:北方华创(超配,目标价人民币514.2元)、中微公司(超配,目标价人民币364.32元)、长电科技(平配,目标价人民币49.49元)[3] * **其他提及的AI模型/公司**:阿里巴巴的Qwen-3、豆包Seed-1.8、Kimi-K2、智谱GLM-4.5、MiniMax-M2、OpenAI的ChatGPT 5.2 [17] 核心观点与论据 * **AI竞争焦点转移**:下一阶段的AI竞争焦点可能不再是追求更大的模型,而是转向更高效的混合式架构,以在硬件约束下实现更强的推理能力 [1][8] * **DeepSeek Engram的技术创新**: * **核心机制**:通过将存储(静态记忆)与计算(动态推理)解耦,引入“条件式记忆”机制,将知识库卸载到独立的存储层(如CPU/DRAM),仅在需要时通过高效查找(O(1)时间复杂度)调用,避免不必要的GPU计算消耗 [1][9][11][15] * **关键优势**: * **降低对HBM的依赖**:减少对昂贵的高带宽内存(HBM)的需求,缓解中国在AI计算方面的存储瓶颈和硬件获取限制 [1][11][16] * **提升效率与性能**:在相同计算量和参数规模下实现更高准确率,显著增强长上下文处理能力,因为注意力机制可以释放更多“带宽”用于全局建模 [16][18] * **优化资源配置**:遵循U形曲线的容量分配规律,在计算与存储资源之间实现更优平衡 [18] * **降低成本**:基础设施成本可能从GPU向存储迁移,中等计算量配置的性价比可能优于纯GPU扩容 [2] * **对中国AI行业的影响**: * **“约束催生创新”**:由于在先进算力、硬件获取方面面临严格约束,中国AI公司选择了一条以效率驱动的创新路径(如稀疏混合专家MoE架构、Engram等),快速缩小了与全球前沿模型的性能差距 [8][14] * **性能对比**:多款中国模型(如DeepSeek-V3.2)在MMLU、GPQA、SWE-Bench等基准测试中取得了与全球前沿系统(如ChatGPT 5.2)相当的成绩,而算力成本仅为后者的一小部分 [14][17] * **战略意义**:中国AI的持续进步更取决于绕过硬件瓶颈,专注于算法和系统层创新,而非直接弥合硬件差距 [16] * **具体数据与需求影响**: * **DRAM需求提升**:采用Engram架构,要在低成本下获得强大推理能力,最低需要约200GB的系统DRAM [2][10] * **系统DRAM配置增加**:Vera Rubin系统中每颗CPU已配备1.5TB的DRAM,采用该架构预计将使每个系统使用的通用DRAM提升约13% [2] * **模型参数示例**:一个100B(千亿)参数的Engram模块,在FP16/BF16精度下,对应的系统DRAM需求最低约为200GB [10] * **未来展望**: * DeepSeek的下一代大模型V4将采用Engram记忆架构,可能在代码生成与推理方面实现明显跃升,并可能继续支持在消费级硬件(如RTX 5090)上运行 [2] * 关注V4能否实现关键基础性能目标,特别是在编码方面,以及具体硬件配置的推理成本比较 [2] 其他重要内容 * **投资逻辑**:看好中国存储及半导体设备本土化主题,因为AI架构向存储与计算解耦方向发展,可能提升对存储和半导体设备的需求 [3] * **架构对比**:Engram作为一种参数化记忆,与检索增强生成(RAG,非参数化)和KV缓存(临时性)在记忆类型、生命周期、访问方式、扩展性等方面存在差异 [22] * **免责声明与评级说明**:报告为英文原版的翻译件,以英文原版为准 [4][5];摩根士丹利使用“超配”、“平配”、“低配”的相对评级体系,而非“买入/持有/卖出” [43][45];报告包含了详细的风险披露、估值方法、分析师认证及利益冲突声明 [24][25][27][28][30][35][36]
AI重塑大气污染防治决策模式,北京大兴的“超脑”治污“进化史”
中国环境报· 2026-01-26 09:53
行业核心观点 - 基于大语言模型的AI辅助决策技术正推动大气污染防治从“人找数据”到“数据找人”、从“被动响应”到“主动预警”的决策模式变革 [1] 技术应用与初步成效 - 北京市大兴区生态环境局已构建多个空气质量分析智能体,形成“感知—规划—执行—呈现”的智能闭环流程 [2] - 系统能深度理解自然语言提问,例如准确识别“大兴黄村站点昨天下午的污染原因”中的时间、空间和业务意图,并自动关联气象数据、源解析结果和周边污染源信息 [2] - 大语言模型能规划生成最优分析路径,例如将“分析北京北燃热力有限公司当前排放对周边影响”的请求分解为子任务,并自动调度数据查询、模型计算等智能体协同响应 [2] - 系统深度整合多源数据与业务功能,可一键调用扩散模拟、轨迹分析等专业模型进行多证据链综合分析 [2] - 系统可生成包含时序变化、空间分布、源解析占比的专业图表,并结合气象条件和周边源分布给出污染物排放方位等具体研判结论以及巡查重点建议 [3] - 通过交互式地图直观展示污染扩散范围和重点排查区域,提高了决策支持效率 [3] 现存问题与挑战 - 大语言模型存在“编造”专业数据、结论的风险,影响决策准确性 [4] - 通用大模型的专业知识和本地数据更新滞后,知识库更新维护成本高 [4] - 专业推理能力不足,难以替代基于物理化学规律的机理模型进行复杂数值预测和溯源反演 [4] - 处理长序列历史数据、高分辨率模型输出、多轮对话时,可能受限于上下文窗口长度 [4] - 智能体应用多集中于数据查询和简单规则判断,在复杂决策场景下的准确性有待提升 [4] - 智能体“思考”过程难以通过深度关联、因果推断进行多源数据融合分析,决策过程不透明,可解释性差 [4] - 智能体的稳定性、可靠性、灵活性高度依赖高质量的流程编排、提示词和知识库,需要复合型人才进行设计、优化和维护 [4] - 数据种类多源异构、质量参差不齐,直接影响智能体判断和模型模拟结果 [5] - 智能体与专业机理模型之间处于“浅层调用”或“结果拼接”阶段,未能实现深度交互与迭代优化纠偏 [5] - 智能分析结果多停留在辅助信息展示层面,尚未形成自动化、智能化的“决策—行动—反馈”业务闭环 [5] 系统优化与成果应用 - 公司强化知识库建设,应用检索增强生成技术,构建覆盖政策、标准、源谱、案例的领域知识库,确保大语言模型生成内容基于本地、权威、最新信息 [6] - 优化推理规划,采用更先进的推理框架和提示词策略,让智能体具备多步骤推理和规划能力 [7] - 加强智能体的可解释性设计,要求其清晰展示推理依据、数据来源和关键计算步骤 [7] - 提升数据治理水平,加强监测设备运维与数据质控,以统一的数据中台对多源异构数据进行标准化处理 [7] - 将关键大气机理模型进行封装和微服务化改造,提供标准、高效的API接口,实现模型的“即插即用”“按需调用” [7] - 深耕典型应用场景形成可复制的解决方案,将智能体分析结果与执法、调度、减排等业务管理系统对接,实现全流程智能化闭环管理 [7] - 设计反馈闭环,允许用户对智能体输出结果进行评价和纠正,并利用反馈持续优化模型和提示词 [7] - 建成业务化运行的AI辅助决策平台,基于国产大语言模型智能调度,集成“精准问数、自助问答、智能问诊”三大功能,由十余个专业智能体协同工作 [8] - 形成可复制的技术方法论,验证了以大语言模型为智能调度中枢串联多智能体解决复杂大气问题的技术路径 [8] - 建立了多数据、多模型交叉溯源模式,融合风场分析、源解析、污染源清单和遥感数据,可生成含溯源路径和概率判断的智能诊断报告,并关联处置建议 [8] - 将以往需要点击多页面的分析工作精简至一个会话框内,数据搜集与分析效率极大提升 [8] - 在污染过程中可在5分钟内初步完成溯源定位 [8] - 通过多源数据与专业模型融合呈现,增强决策科学性,推动从“经验治污”向精准治污、科学治污转变 [8] 未来展望 - 应用场景将从单一监测与溯源拓展至跨区域联防、应急响应推演、减排成效评估与公众服务,形成覆盖“监测—研判—治理—评估—反馈”的全链条体系 [9] - 溯源分析在功能上将从单点定位迈向多源因果链推理,由扩散模拟逐步提升为更高时空分辨率的动态推演,并引入不确定性量化 [9] - 决策支持将从静态结论展示迭代为可解释、可执行、可反馈的行动方案推送 [9] - 随着多源数据深度融合、机理模型与大语言模型的紧密耦合,一个集智能感知、动态推演和精准调度于一体的“大气环境超脑”将逐步成型 [9]
2026北京两会|对话市政协委员王仲远:北京形成了人工智能闭环式产业生态
北京商报· 2026-01-25 19:17
行业发展阶段与核心趋势 - 人工智能产业经过三年快速发展,已从初期的技术探索与概念热潮,进入聚焦落地效能的务实发展阶段 [2] - 大语言模型等基础模型的研发步伐趋于平缓,产业重心正加速向应用端转移 [2][3] - 行业一个突出趋势是从单智能体向多智能体系统演进,通过多个智能体协同处理具体场景任务,其效果显著优于单一智能体,被视为技术深度融入实体经济的关键路径 [2][5] - 人工智能正加速突破数字世界边界,向物理世界延伸,技术从语言模型向多模态模型、世界模型升级,着力攻克时间空间认知、物理常识推理等核心难题 [2][5] 北京人工智能产业生态与优势 - 北京作为人工智能发展的核心阵地,凭借全栈式生态布局,形成了从底层算力芯片、中间层技术研发到顶层场景应用的完整闭环式产业生态 [2][3][5] - 2025年预计北京市人工智能核心产业规模达4500亿元,集聚企业超2500家,两项指标均约占全国半数 [3] - 北京人工智能领域有近60家上市企业和约40家独角兽企业,国内首个上市的国产AI芯片企业、大模型企业以及估值最高的AI独角兽企业均诞生于此 [3] - 人才优势突出,北京有148人入围“AI 2000全球最具影响力学者榜单”,占全国超40%,AI学者总量达1.5万人,占全国30% [3][5] - 拥有从顶尖高校到新型研发机构再到企业的完整人才培养与发展全链条,为人才提供了多样化的成长平台 [7] 政策支持与产业引导 - 北京的政策支持接地气且布局全面,既支持从0到1的颠覆式创新,也扶持前瞻性技术研发,同时助力企业推进场景落地,形成了全方位的支撑体系 [3][6] - 科研机构、企业与政策层面形成的合力,正推动多智能体等新技术加速突破场景壁垒、迈向商业闭环 [3] 未来发展方向与预期 - 行业当前更聚焦于务实解决问题,实现大模型的商业闭环被视为技术与产业实现高质量发展的关键 [9] - 未来核心方向是促进大模型落地应用,多智能体系统是重要抓手,有真实案例显示18个智能体组成的系统远超客户满意度 [8] - 对2026年成为中国智能体爆发的关键之年充满期待,建议通过开放政务等领域智能体技能库、开展竞赛等方式推动多智能体落地 [3][8] - 当大模型基础能力提升进入平缓期,便迎来了应用落地爆发的绝佳阶段 [9]
AI量化的当下与未来
华泰证券· 2026-01-25 10:55
AI量化模型与因子总结 量化模型与构建方式 1. **模型名称:AI全频段量价模型** * **模型构建思路**:采用端到端建模范式,直接对原始量价数据进行学习,从低频(日、周、月频)逐步拓展至高频(逐笔成交、Level2)数据,旨在捕捉不同时间尺度下量价数据的内在联系与市场微观结构模式[3][17]。 * **模型具体构建过程**: * **低频多任务学习模型**:模型同时接收日频、周频和月频三种不同颗粒度的K线数据,采用同一个GRU模块提取时序信息,实现知识共享[19]。 * **PatchModel(长时间序列建模)**:借鉴分块思想,将长时间序列量价数据按交易日划分为多个patch,以缓解信息遗忘问题[22]。 * **PatchModel1**:使用GRU处理日内时序数据,再通过注意力机制构建日间联系[22][23]。 * **PatchModel2**:将日内时点信息拆解为不同特征,再使用GRU挖掘日间的时序规律[22][23]。 * **基于逐笔成交的深度学习模型**:从资金流和事件驱动角度构建特征,利用Transformer模型学习多维注意力规律[24]。 * **资金流模型**:根据等时间、等成交笔数、等成交量、等价格波动对逐笔成交数据进行采样,形成4种结构化K线。构建双层Transformer模型,第一层学习时序注意力,第二层学习跨K线注意力,最终输出个股未来收益预测[24][30]。 * **基于Level2数据图像的选股模型**:将高频逐笔成交与委托数据转换为标准化的三维图像格式(通道数、价格区间、成交量/委托量区间),应用Vision Transformer(ViT)及Video Vision Transformer(ViViT)进行模式识别,提取微观结构信息[27][28]。 * **模型评价**:作为一种具备长期价值的研究范式,端到端框架尝试在统一的表示空间中学习市场原始数据的内在联系,使量价研究从局部经验驱动迈向整体结构感知[17]。 2. **模型名称:Master模型** * **模型构建思路**:基于Transformer架构,通过新增变量间注意力层,实现对股票特征在时序上、股票间、特征间的关联变化进行协同建模[55]。 * **模型具体构建过程**:模型在时序注意力层的基础上,通过特定方式新增了变量间注意力层,以增强多变量协同建模能力[55]。具体网络结构可参考图表23[64]。 3. **模型名称:HIST模型** * **模型构建思路**:利用图神经网络(GNN)进行多变量相关性建模,通过多层残差图结构捕获股票间显式的行业板块关联、隐式的风格概念关联以及剩余的特征性收益[54]。 * **模型具体构建过程**:在注意力机制加持下,模型构建多层残差图结构来充分提取股票间的复杂关联信息[54]。具体网络结构可参考图表19[61]。 4. **模型名称:Crossformer模型** * **模型构建思路**:基于Transformer架构,专注于多变量协同建模,其底层模型结构在时序注意力层的基础上新增了变量间注意力层[55]。 * **模型具体构建过程**:通过改进的注意力机制实现对股票特征在时序和横截面上关联变化的协同建模[55]。具体网络结构可参考图表20[62]。 5. **模型名称:PortfolioNet系列模型** * **模型构建思路**:实现从收益预测到组合决策的端到端打通,旨在填平预测与交易之间的鸿沟,让模型直接对组合决策结果负责[5][112]。 * **模型具体构建过程**: * **PortfolioNet**:模型前端基于量价数据生成信号,随后经过可微优化层(如LinSAT)投影为合规的组合权重,组合收益直接参与损失计算并反向传播,实现一站式建模[112]。 * **PortfolioNet 2.0**:在前期模型基础上,对组合约束项赋予可微性能,让AI量价因子在追求高收益弹性的同时,也能捕捉Pure Alpha之外的风格收益[113]。 6. **模型名称:多粒度对比学习框架(CMLF)** * **模型构建思路**:解决直接融合不同粒度量价数据时面临的粒度不一致性和市场状态变化挑战,通过对比学习机制学习有效的股票表征,并动态调整特征融合方式[36]。 * **模型具体构建过程**: * **预训练阶段**:设计跨粒度对比和跨时间对比两种机制,以学习更有效的股票表征[36]。 * **特征融合阶段**:引入自适应门控机制,动态调节不同粒度特征的融合权重[36]。 7. **模型名称:多周期学习框架(MLF)** * **模型构建思路**:包含核心模块以消除周期间冗余信息、融合各周期预测结果,并确保数据一致性以降低模型偏差[40]。 * **模型具体构建过程**:包含三个核心模块:周期间冗余过滤(IRF)、可学习加权集成(LWI)和多周期自适应分块(MAP)[40]。 8. **模型名称:模态感知Transformer(MAT)** * **模型构建思路**:旨在提升深度学习模型挖掘跨模态交互信息的能力,通过引入特征级注意力层识别各模态中最相关的特征[42]。 * **模型具体构建过程**:设计三种多头注意力机制:模态内注意力(捕捉单模态内部时间依赖)、模态间注意力(探索不同模态间关联)和目标模态注意力(在解码阶段捕捉目标序列与各输入模态间的交互作用)[42]。 9. **模型名称:非平稳Transformer** * **模型构建思路**:针对金融时间序列的非平稳特性,改造Transformer底层架构,使模型能感知并适应数据分布的变化[77]。 * **模型具体构建过程**:保留数据预处理时描述原始数据分布特征的参数(如均值、方差),将注意力机制中计算的自注意力权重按照从原始数据分布特征中学到的平稳因子进行放缩,从而将数据分布统计特征引入注意力模块[77]。 10. **模型/框架名称:LLM-FADT文本策略** * **模型构建思路**:借助大语言模型(LLM)对上市公司相关研报、新闻文本进行深度理解,将另类数据中的情绪因子转化为交易信号[6][51]。 * **模型具体构建过程**:利用大模型深入挖掘文本数据,通过数据增强、分域建模的思想将文本情绪因子与AI模型相结合[51][52]。 11. **模型/框架名称:舆情分诊台(LLMRouter-GRU)** * **模型构建思路**:借助大模型挖掘新闻舆情文本,通过分域建模的思想将情绪因子与AI量价因子相结合,赋能选股模型[51]。 * **模型具体构建过程**:利用大模型处理新闻舆情文本,构建情绪因子,并将其与GRU等量价模型结合进行选股[51]。 12. **模型名称:3S-Trader** * **模型构建思路**:一个多LLM框架,用于自适应股票评分、策略制定和组合优化中的标的筛选,整合多源信息并提供可解释的策略优化方向[125]。 * **模型具体构建过程**:通过多个LLM代理分别分析新闻、财报和技术指标,对每只股票生成多维评分,再结合策略迭代模块进行组合构建与调整[125]。 13. **模型名称:MoEDRLPM** * **模型构建思路**:基于混合专家(Mixture of Experts)的深度强化学习组合模型,旨在通过动态切换交易逻辑来适应多变的市场状态[124]。 * **模型具体构建过程**:引入时序与空间注意力机制刻画资产的时空相关性,并利用混合专家结构在不同市场状态下动态切换交易逻辑[124]。 模型的回测效果 (注:报告中对部分模型给出了具体的策略跟踪结果,但指标名称和取值在提供的文本中未完整、系统地列出。以下根据原文提及的绩效描述进行总结。) 1. **AI全频段量价模型**:自2017年以来年化超额收益显著,在样本外持续展现出对中证1000指数的稳健增强效果[6]。 2. **Master因子**:通过精细化的结构设计与风格控制,既可兼顾Pure Alpha,也有机会捕获风格收益[6]。 3. **PortfolioNet 2.0因子**:在回测区间(2023-01-03至2025-11-28)内,合成因子相比于经典AI量价模型取得明显提升,在300增强、500增强与1000增强场景下,年化超额收益分别提升7.5pct、7.5pct与8.5pct,信息比率(IR)同步改善[113]。 4. **舆情分诊台(LLMRouter-GRU)**:在文本另类数据相关策略中表现优异[6]。 5. **LLM-FADT文本策略**:在文本另类数据相关策略中表现优异[6]。 量化因子与构建方式 1. **因子名称:Master因子** * **因子构建思路**:通过精细化的模型结构设计与风格控制,构建既能捕捉Pure Alpha,又能兼顾风格收益的复合因子[6]。 * **因子具体构建过程**:基于Master模型(一种市场引导的股票Transformer)进行股价预测,生成的预测信号作为选股因子[86]。具体构建方法可参考图表51[12]。 2. **因子名称:PortfolioNet2.0因子** * **因子构建思路**:利用PortfolioNet 2.0模型,通过端到端学习从原始数据中合成兼取风格收益与Pure Alpha的因子[6][113]。 * **因子具体构建过程**:模型在训练过程中,通过可微的组合约束项,使学习到的信号同时蕴含Pure Alpha和风格收益信息,最终输出用于选股的合成因子[113]。 3. **因子名称:大模型舆情选股因子 / LLM-FADT因子** * **因子构建思路**:利用大语言模型对文本(如分析师研报、新闻)的深度理解能力,挖掘其中的情绪或事件信息,并将其量化为选股因子[6][51]。 * **因子具体构建过程**:通过大模型处理文本数据,进行情感分类、信息提取或逻辑推理,将结果转化为数值型的股票信号[51][61]。 4. **因子名称:AI宏观因子** * **因子构建思路**:借助大语言模型从海量新闻舆情中提炼宏观叙事与情绪,构建能够捕捉传统数据滞后市场规律的宏观因子[5][132]。 * **因子具体构建过程**:使用LLM处理宏观新闻文本,构建例如经济增长、地缘风险等情绪指数,形成可用于资产配置或策略的宏观因子[53][132]。 5. **因子/框架名称:风险因子挖掘框架(如HRFT)** * **因子构建思路**:专注于挖掘刻画市场不确定性(如波动、相关性、尾部风险)的风险因子,而非传统收益因子[93]。 * **因子具体构建过程**:以HRFT(High-Frequency Risk Factor Transformer)为例,作为一种端到端挖掘框架,将符号数学类比为语言,利用Transformer直接从高频交易特征中自动提取可解释的公式化风险因子,例如用于度量短期市场收益分布方差的因子[93]。 6. **因子挖掘框架:EvoAlpha / TreEvo / CogAlpha** * **构建思路**:基于大语言模型实现“认知型”因子挖掘,利用LLM对金融语义和代码逻辑的理解来指导进化过程,提升搜索效率和因子的可解释性[96][97]。 * **具体构建过程**:如TreEvo框架引入“树状思维进化”,让LLM先构建分层的交易逻辑(如动量、反转的组合),再将其转化为具体代码,实现从线性代码生成向层次化思维进化的转变[97]。 7. **因子挖掘框架:Alpha Jungle / RiskMiner** * **构建思路**:将LLM的生成能力与蒙特卡洛树搜索(MCTS)等规划算法结合,在高维稀疏的Alpha空间中实现有导向、有策略的高效导航[100][101]。 * **具体构建过程**:LLM作为策略网络提出候选公式,回测结果作为价值网络的反馈信号,引导MCTS的搜索方向。RiskMiner则采用“风险寻求”的MCTS变体,专门探索高风险但潜在高收益的稀有因子[101]。 8. **因子挖掘框架:AlphaForge / Synergistic Alpha** * **构建思路**:重心从挖掘单一因子转向“因子协同”与“动态组合”,直接面向投资组合的最终表现进行端到端优化[105]。 * **具体构建过程**:不仅挖掘基础公式,还通过基因拼接等算子寻找与现有因子库正交的新因子,并引入动态权重调整机制,实现基于市场环境变化的实时因子重组[105]。 因子的回测效果 (注:报告中对部分因子给出了具体的绩效指标,以下根据原文图表和描述进行总结。) 1. **Master因子**:根据图表52,在回测中展示了其RankIC、年化超额收益、夏普比率等信息,并与其他基准因子进行了对比[12]。图表55和56显示了其用于中证1000指数增强的业绩指标和超额净值曲线[12]。 2. **PortfolioNet2.0因子**:根据图表59,在中证1000指增组合中(回测区间2023-01-03至2025-12-31),展示了年化超额收益、超额波动、信息比率(IR)、最大回撤等绩效指标[12]。 3. **“舆情分诊台”AI量价因子**:根据图表57,在沪深300指增组合中(回测区间2023-01-03至2025-12-31),展示了年化超额收益、信息比率(IR)等绩效表现[12]。 4. **LLM-FADT文本策略**:根据图表63,在中证500增强策略回测期(2017-01-26至2025-12-31)内,展示了年化收益、年化波动、夏普比率、最大回撤等绩效指标[12]。图表65对比了其与BERT-FADT策略的超额收益[12]。
“AI教母”李飞飞初创公司World Labs拟融5亿美元,估值50亿美元
搜狐财经· 2026-01-23 10:50
公司融资与估值 - 初创公司World Labs正在进行新一轮融资洽谈,目标估值约为50亿美元(约合349亿元人民币)[1] - 本轮融资预计将为公司带来约5亿美元(约合34.9亿元人民币)的新增资金,但交易尚未最终敲定[3] - 公司于2024年结束隐身并完成2.3亿美元(约合16.05亿元人民币)融资,当时估值约为10亿美元(约合69.8亿元人民币)[1] 公司技术与产品 - World Labs主要致力于开发能够理解、导航并对三维世界进行决策的AI工具,其技术方向被称为“大型世界模型(Large World Models)”[3] - 2024年晚些时候,公司推出了首款产品Marble,该模型可根据图像或文本提示生成三维世界[3] 公司投资方与背景 - 公司现有投资方包括Andreessen Horowitz、NEA、Radical Ventures,英伟达旗下的风险投资部门也已参与投资[1] - 其他投资方还包括沙特阿拉伯的Sanabil Investments以及新加坡主权投资机构淡马锡控股[5] - 参与公司2024年融资轮的个人投资者包括谷歌DeepMind首席科学家Jeff Dean、演员兼投资人阿什顿·库彻以及前谷歌人工智能研究员杰弗里·辛顿[5] - 公司创始人李飞飞被称为“AI教母”,她于2006年主导创建了包含超过1500万张图像的ImageNet项目,推动了人工智能技术发展[4] - 李飞飞目前是斯坦福大学教授,并担任斯坦福以人为本人工智能研究院的联合创始主任[4] 行业趋势与竞争 - 随着投资者开始寻求超越大语言模型的下一代AI技术突破,世界模型等相对尚处早期阶段的方向正受到更多关注[3] - 由前Meta研究员杨立昆创办的世界模型初创公司AMI Labs正吸引潜在投资者,其融资轮估值可能达到35亿美元(约合244.3亿元人民币)[4]
英矽智能涨超6%破顶 NLRP3抑制剂ISM8969获FDA临床试验批件
智通财经· 2026-01-23 10:37
公司股价与市场表现 - 公司股价上涨超过6%,盘中触及62.9港元,创下上市以来新高 [1] - 截至发稿,股价上涨6.11%,报62.5港元,成交额为2637.99万港元 [1] 核心产品研发进展 - 公司用于治疗帕金森病的口服NLRP3抑制剂ISM8969的临床试验新药申请已获得美国FDA批准 [1] - 即将开展的I期临床研究旨在评估ISM8969在健康人群中的安全性、耐受性、药代动力学,并确定临床推荐最佳剂量 [1] - 为加速ISM8969的全球开发,公司已与衡泰生物达成共同开发合作协议,双方各持有该项目50%的全球权益 [1] - 根据合作协议,公司有权获得最高超过5亿港币的预付款和里程碑付款 [1] 人工智能技术平台发展 - 公司日前发布了名为Science MMAI Gym的大语言模型训练框架 [1] - 该框架旨在将具有因果推理能力的大语言模型转化为能处理真实世界药物发现与开发任务的高性能引擎 [1] - 经过该框架训练后,原本在专业任务领域失败率高达75%–95%的大语言模型,在关键药物发现基准测试中可实现最高10倍的性能提升 [1] - 此次发布将进一步推进公司的制药超级智能愿景 [1]
DeepSeek新模型曝光?
新华网财经· 2026-01-22 13:00
开源代码与模型动态 - DeepSeek在GitHub上更新了Flash MLA代码库,涉及的114个文件中,有数十处提到了此前未公开的"MODEL1"大模型标识符 [2] - 在部分文件中,"MODEL1"与已知的现有模型"V32"(即DeepSeek-V3.2)并列提及,行业分析认为"MODEL1"可能代表一个不同于现有架构的新模型,或许是DeepSeek还未对外发布的下一代模型(R2或者V4)[4] - 2025年2月,DeepSeek启动"开源周",计划以每日解锁的形式逐步公开5个代码库,Flash MLA为首个开源项目 [3] 技术进展与模型发布计划 - 公开资料显示,Flash MLA通过优化Hopper GPU的内存访问和计算流程,显著提高可变长度序列的处理效率,其核心设计包括动态内存分配机制和并行解码策略,可减少冗余计算并提升吞吐量,尤其适用于大语言模型的推理任务 [3] - 此前有市场消息称,DeepSeek计划在2025年2月春节前后发布新一代AI模型DeepSeek V4,但发布时间可能会视实际情况而变化 [4] - V4模型是DeepSeek 2024年12月发布的V3模型的迭代版,具备强大的编程能力,公司内部的初步测试显示,V4在编程能力上超过了目前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列 [4] 近期研究成果 - 2026年1月以来,DeepSeek动作不断,已陆续发布了两篇技术论文,分别介绍了名为"优化残差连接(mHC)"的新训练方法,以及一种受生物学启发的"AI记忆模块(Engram)" [4] - 2026年1月12日,DeepSeek在GitHub上发表新论文,文章由DeepSeek与北京大学合作完成,作者中有梁文锋署名,文章提出了条件记忆(conditional memory),并给出了实现方案Engram模块,公司称该模块不仅有助于知识检索,同时在一般推理和代码/数学领域方面取得了更大的进步 [5] 公司背景与资金支持 - 在业内看来,梁文锋旗下私募幻方量化较高的收益率,为DeepSeek的研发提供了更多支持 [5] - 公开资料显示,幻方量化2025年的收益均值达56.55%,在中国管理规模超百亿的量化私募业绩榜中位列第二,仅次于以73.51%收益均值登顶的灵均投资,目前,幻方量化管理规模已超700亿元 [5]
独家对话阿里健康:低调上线“氢离子”APP,战略级应用,三年不考虑商业化
第一财经· 2026-01-21 09:46
公司战略与产品定位 - 公司推出名为“氢离子”的AI原生APP,定位为“医生版ChatGPT”,专注于为医生提供循证医学下的临床诊疗和科研决策支持[1][6] - 该产品是公司的战略级项目,于2024年底内部立项,2025年年中经决策层批准后上升为公司战略[7][8] - 公司明确选择专注于医生端(D端)应用,而非消费者端(C端),核心逻辑是医疗的本质是决策,而医生是医疗体系中最关键的决策者,中国每年有超过100亿次以医生为主体的医疗决策[19][20] 产品开发与核心优势 - 产品研发与通义千问技术团队深度协作,基于最原始的通义模型进行针对性调优,而非使用公开模型[3] - 产品核心优势体现在响应速度和低幻觉率:首次令牌(first token)响应时间约为3秒,优于行业普遍的10秒;在输出质量接近的情况下,其严重幻觉率与OpenEvidence基本持平,并声称比国内竞品领先2-3倍[7] - 产品调优的壁垒在于深度结合临床实践,建立了由内部医学团队和外部上百名临床医生共同参与的反馈与优化体系,以确保答案符合不同科室医生的临床偏好和评价标准[12][13] 市场机会与用户洞察 - 市场存在机会是因为目前医生需要安装多个APP(访谈中超过50%的医生会装5到6个)来解决查用药、指南、文献等单点需求,而“氢离子”旨在用一个平台解决所有医学问题[23] - 目标用户覆盖全层级医生,但观测到需求最旺盛的是“中腰部医生”,即部分三级医院、二级医院乃至基层社区医院的医生,他们承担着最广泛的诊疗工作[24] - 用户获取策略是直接面向医生(而非通过医院),当前线下陌拜医生的产品下载转化率“基本是100%”,公司认为产品效果的拐点已到[10] 技术理念与产品愿景 - 产品成功需要满足三个关键技术条件:解决长尾知识获取、实现个性化(结合患者具体上下文)、以及建立信任(提供答案背后的证据)[17] - 公司愿景是成为“解决中国500万医生一切医学问题的医学AI”,长期社会价值与商业价值想象力巨大[6][29] - 产品当前自评分为70-80分(理想态为90分),并认为越往后提升越难,但此事可以做很久[14][15] 商业模式规划 - 现阶段(至少三年内)完全不考虑商业化,核心目标是服务好医生,关键绩效指标(KPI)是三年内让所有中国医生在遇到医学问题时都能想到使用该产品[27][30] - 未来可行的商业模式探索方向是面向药企的数字化营销,类似于OpenEvidence(其核心收入来源于药企),而非直接向医生收费。公司认为在国内创新药发展及医疗反腐环境下,此方向空间更大[27][28] - 公司明确排除医疗广告的流量逻辑,认为医生具备辨别能力,这亦是选择从医生端起步的商业考量之一[27] 竞争环境与公司信心 - 公司不认为通用大模型平台是直接竞争对手,因为双方业务逻辑不同(公司专注于解决500万医生的具体医学问题,而非追求日活跃用户数)[30] - 对自身竞争力有信心,认为成功需要几个硬件条件:背靠通义千问的技术、多年的医学内容积累(如知识图谱)、充足的资金与算力资源、以及药企端的生态资源,这些条件共同构成了较高的成功确定性[30][31]
刚刚,马斯克开源基于 Grok 的 X 推荐算法!专家:ROI 过低,其它平台不一定跟
AI前线· 2026-01-20 17:36
X推荐算法开源事件概述 - 马斯克旗下X平台时隔近三年再次开源其核心推荐算法 该算法负责生成用户主界面的“为你推荐”信息流 [2][12] - 开源库包含支持“为你推荐”信息流的核心推荐系统 结合了用户关注账号的网络内内容和通过机器学习检索发现的网络外内容 并使用基于Grok的Transformer模型对所有内容进行排名 [3] - 开源项目在GitHub上已获得679颗星 代码主要由Rust(62.9%)和Python(37.1%)语言构成 [5] 算法核心架构与运行逻辑 - 算法从两类来源抓取候选内容:用户主动关注的账号发布的帖子(In-Network)以及系统在整个内容库中检索出的可能感兴趣的帖子(Out-of-Network) [6][9] - 系统会过滤掉低质量、重复、违规或不合适的内容 例如已屏蔽账号的内容、用户明确不感兴趣的主题以及非法、过时或无效的帖子 [7][10] - 算法核心是使用一个基于Grok的Transformer模型对每条候选帖子进行评分 该模型根据用户历史行为预测点赞、回复、转发、点击等行为的概率 并将这些概率加权组合成一个综合得分以决定推荐顺序 [7] - 这一设计基本废除了传统手工提取特征的做法 改用端到端的学习方式预测用户兴趣 [8] 开源背景与动机 - 这是马斯克第二次开源X推荐算法 首次开源是在2023年3月31日 当时开源了大部分推荐算法 项目在GitHub收获超过10k颗星 [12] - 马斯克曾表示开源目标是让X成为“互联网上最透明的系统” 并希望独立第三方能确定平台可能向用户展示的内容 [12] - 过去一年 X因其内容分发机制屡次陷入争议 被批评算法层面存在系统性偏见 偏袒和助长右翼观点 [18] - 马斯克在2025年1月11日发帖承诺将于7天内开源新的X算法 包括用于确定推荐哪些自然搜索内容和广告内容的所有代码 [14] - 公司计划每4周重复一次开源流程 并附有详细的开发者说明以帮助了解变化 [15] 行业专家解读 - 专家指出 从系统整体设计看 开源代码依然遵从召回(recall)到排序(rank)的多阶段漏斗筛选架构 Grok模型并未参与中间过程 只是排序模型采用了类似Grok的架构 但参数量远小于Grok [35] - 最大的结构变化在于使用纯Transformer(类Grok)模型结构去做排序 其他差异不大 [36] - 若要实现“每日处理上亿条内容并进行实时多模态理解”的目标 将需要极其充足的GPU算力、高并发处理引擎以及可高速访问的大型文件系统 尤其是处理视频内容计算量巨大 [37] - Grok方法消耗的算力是传统推荐系统的数千倍 这部分成本往往不能被平台收益覆盖 对于X这样以广告为核心收入的平台 只有做到延迟和体验对标原有系统 广告收入才可能持平 但目前来看投入成本过高 投资回报率过低 [37] - 这种“持续、周期性开源”代码的方式 由于只开源代码而不开源所有配套系统和训练数据 无法复现其效果 因此对学术研究价值不大 对工业交流有一定参考意义 [38] - 即使Grok思路跑通 其他平台也不一定会跟进 因为其他平台没有属于自己的Grok 且大部分平台不会在此投入巨额算力 [39] - 行业不会弱化对用户行为和画像的依赖 用户历史行为是实现个性化的数据根基 缺少这部分信息的推荐系统很难做到千人千面 [39] 推荐系统的行业地位与LLM带来的变革 - 推荐系统是互联网巨头商业模式的“基础设施级存在” 堪称“沉默巨兽” [25] - 公开数据显示 亚马逊约35%的购买行为直接来自推荐系统 Netflix约80%的观看时长由推荐算法驱动 YouTube约70%的观看来自推荐系统 Meta内部约80%的算力周期用于服务推荐相关任务 [25] - 如果将推荐系统从这些产品中移除 几乎等同于抽掉地基 它直接决定平台“如何赚钱” [27] - 传统推荐系统架构工程复杂度极高 生产系统往往高度碎片化 一个完整的推荐链路背后通常同时运行着30个甚至更多专用模型 [28] - 大型语言模型的出现为推荐系统提供了新的可能路径 LLM是强大的通用模型 在不同任务间迁移能力强 随着数据规模和算力扩展 性能还能持续提升 [29] - 单一大模型带来的不仅是工程简化 还包括“交叉学习”的潜力 不同任务之间的信号可以相互补充 [29] - LLM对推荐系统最大的改变发生在“特征工程”环节 传统方法需要人为构造大量信号 而引入语言模型后 流程被高度抽象 模型可以基于理解能力自行判断重要信号并做出决策 [31] 开源内容的局限性与社区反应 - 有网友指出 虽然架构开源 但此次发布本质上是一个框架 缺少部分关键内容 例如具体的权重参数、隐藏的模型权重以及未公开的训练数据 [23][26] - 对于普通用户而言 算法开源不会造成太大影响 但更高的透明度可以解释为什么有些帖子能获得曝光而另一些则无人问津 并使研究人员能够研究平台如何对内容进行排名 [23] - 在X平台 有用户对推荐算法机制总结出几点规律 例如回复评论的权重是点赞的75倍 不回复评论会严重影响曝光率 在帖子正文中放置链接会降低曝光率 用户观看时长至关重要 以及“模拟集群”真实存在 偏离细分领域将无法获得分发渠道 [22]