Workflow
深度学习
icon
搜索文档
市场微观结构系列(32):深度学习赋能因子挖掘2.0:综合应用方案
开源证券· 2026-01-28 17:14
量化模型与构建方式 1. **模型名称:因子挖掘2.0模型框架(GRU+GAT_SA加权_考虑财务)**[2][18] * **模型构建思路**:在1.0版本(LSTM+MLP)基础上进行升级,通过GRU网络挖掘时序信息,通过GAT网络挖掘股票间的截面关联信息,并使用自注意力(SA)加权方式融合不同关联网络(行业、财务、资金流)的GAT输出,最后拼接财务指标以增强多头表现。[2][18][24][25][32][35] * **模型具体构建过程**: 1. **输入**:使用不同的特征集(如PV、G、C等)作为模型输入。[19] 2. **时序信息提取**:输入特征首先通过GRU(门控循环单元)网络,提取时间序列上的隐藏信息。[24] 3. **截面信息提取**:将GRU的输出作为GAT(图注意力网络)的输入。GAT网络根据预定义的股票关联图(如行业关联、财务关联、资金流关联)聚合邻居节点的信息。[25][27] 4. **多网络融合**:对于三种不同关联网络(行业、财务、资金流)的GAT输出,不采用简单等权合成,而是引入一个可学习的MLP层进行SA加权。该MLP层的输入为过去20日的Barra风格因子收益,输出经Softmax归一化后得到各网络的动态权重。[7][32] 5. **财务信息融合**:将SA加权融合后的GAT输出,与截面标准化后的财务指标(9大类,含原始值、同比、环比)进行拼接。[35][36][37] 6. **输出**:拼接后的特征通过一个全连接层(MLP),输出最终的因子预测值。[35] 2. **模型名称:收益率牵引因子模型**[27] * **模型构建思路**:基于资金流关联网络,通过聚合同状态股票集的收益率信息来构建选股因子,是GAT网络思想的雏形。[27] * **模型具体构建过程**: 1. **构建关联状态**:在每个交易日,回看过去20个交易日,根据小单净流入强度将股票分为20种状态。[27] 2. **计算同状态股票集收益**:对于股票A,找到与其处于相同状态的所有股票,计算该股票集合的收益平均值。[27] 3. **计算因子值**:将股票A自身的收益对同状态股票集收益平均值进行回归,所得的残差即为股票A的因子值。[27] $$因子值_A = 残差(收益_A \sim 同状态股票集平均收益)$$ 3. **因子名称:ML_C(综合深度学习因子)**[7][69] * **因子构建思路**:将多个单一特征集(PV, G, C, HF, DP)以及二维度交叉挖掘出的因子,按照其多头收益表现进行加权合成,得到最终的综合因子。[69] * **因子具体构建过程**: 1. **单一维度挖掘**:使用“GRU+GAT_SA加权_考虑财务”模型,分别对PV、G、C、HF、DP五个特征集进行训练,得到五个基础因子。[68] 2. **二维度交叉挖掘**:尝试将任意两个特征维度放在一起进行联合挖掘,维度间使用SA加权,得到一系列二维因子。[69] 3. **合成**:将步骤1得到的基础因子和步骤2得到的二维因子,按照各自的多头收益表现进行加权,合成最终的ML_C因子。[69] 4. **因子名称:G(技术指标和K线状态变量)**[7][19][45] * **因子构建思路**:从图形识别思路出发,基于基础行情(开、高、低、收、成交量)计算技术指标和合成K线,并通过状态变量编码进行特征拓展。[45] * **因子具体构建过程**:报告未提供具体计算的技术指标列表和K线状态变量编码公式,但指出其转化思路来源于《深度学习赋能技术分析》报告。[45][46] 5. **因子名称:C(大小单资金流)**[7][19][52] * **因子构建思路**:基于大小单资金流原始数据,通过计算衍生指标和状态变量来增强特征。[52][54] * **因子具体构建过程**: 1. **原始数据**:使用AshareMoneyFlow基础表中的资金流数据。[52] 2. **衍生指标**:计算如资金流过去250日的分位点等特征。[54] 3. **状态变量转化**:针对每类资金流(如买入、卖出、主动买入、主动卖出),每日判断四个问题:净买入>0?主动净买入>0?主动买入比例>0.5?主动卖出比例>0.5?将答案转化为状态变量。[54][55] 6. **因子名称:HF(高频特征)**[7][19][59] * **因子构建思路**:将高频数据降维至日度特征进行挖掘。[59] * **因子具体构建过程**:输入特征包括两部分:1) 分钟收益率和分钟成交量相关衍生指标;2) 逐笔成交数据降频至分钟频后计算的相关衍生指标,具体指标来源于前期相关报告。[59] 7. **因子名称:DP(遗传算法有效因子)**[7][19][60] * **因子构建思路**:将前期通过遗传算法挖掘出的有效因子(Alpha185因子集)作为特征,输入深度学习模型进行“再掘金”。[60][65] * **因子具体构建过程**:从Alpha185因子集中,筛选在2017年之前表现较好且缺失度较低的48个因子作为输入特征。在挖掘时,由于输入已是有效因子,不再使用时序网络(GRU),而直接采用GAT网络进行截面信息挖掘。[60][65] 8. **模型名称:行业轮动因子合成模型**[89][91][92] * **模型构建思路**:采用自下而上的方法,将个股因子通过多种方式聚合至行业层面,构建行业轮动因子。[89] * **模型具体构建过程**: 1. **聚合方法**:对个股因子采用5种聚合方式生成行业因子:(1)因子值均值(等权);(2)因子值市值加权;(3)因子值分域后等权(前1/3标1,后2/3标-1,其余0,取均值);(4)因子值分域后市值加权;(5)选取因子值前20%的股票,统计其数量占行业股票总数的比例。[89] 2. **因子选取与合成**:选取“综合因子ML_C”等5个特定因子在特定聚合方式下生成的行业轮动因子,进行等权合成,得到最终的行业轮动因子。[91][92] 9. **模型名称:强化学习风格优选模型**[5][76][77] * **模型构建思路**:针对深度学习因子风格倾向性强的问题,结合强化学习进行风格轮动,实现Alpha与Beta的协同优选,以降低极端市场环境下的回撤。[5][76] * **模型具体构建过程**:基于《深度学习赋能风格轮动和多策略融合》中的方案,将风格轮动转化为截面标的优选问题,使用强化学习SAC方法进行日度决策。在调仓日,汇总过去20个交易日的风格action值进行排序,选取排名靠前的10种风格。[77][80] 模型的回测效果 *测试区间均为2020年1月1日至2025年11月28日,双周频调仓,因子经市值行业中性化处理。多头超额基准:全市场为中证全指,宽基内为对应宽基指数。[24]* 1. **GRU+GAT_SA加权_考虑财务模型 (基于PV特征集)**,10日RankIC 11.7%,年化RankICIR 5.7,多空对冲年化收益 58.9%,多空对冲信息比率 5.1,多空对冲最大回撤 -4.8%,多空对冲胜率 82.7%,多头超额年化收益 24.1%,多头超额信息比率 3.0,多头超额最大回撤 -5.4%,多头超额胜率 72.0%。[39][44] 2. **GRU+GAT_SA加权_考虑财务模型 (基于G特征集)**,10日RankIC 11.0%,年化RankICIR 5.8,多空对冲年化收益 59.9%,多空对冲信息比率 6.2,多空对冲最大回撤 -2.5%,多空对冲胜率 82.7%,多头超额年化收益 23.3%,多头超额信息比率 3.3,多头超额最大回撤 -5.4%,多头超额胜率 75.3%。[47][49] 3. **GRU+GAT_SA加权_考虑财务模型 (基于C特征集)**,10日RankIC 10.6%,年化RankICIR 5.1,多空对冲年化收益 56.4%,多空对冲信息比率 5.2,多空对冲最大回撤 -4.4%,多空对冲胜率 81.3%,多头超额年化收益 19.5%,多头超额信息比率 2.8,多头超额最大回撤 -5.6%,多头超额胜率 70.0%。[56][58] 4. **GRU+GAT_SA加权_考虑财务模型 (基于HF特征集)**,10日RankIC 11.6%,年化RankICIR 5.9,多空对冲年化收益 57.5%,多空对冲信息比率 5.8,多空对冲最大回撤 -5.2%,多空对冲胜率 82.0%,多头超额年化收益 19.1%,多头超额信息比率 2.6,多头超额最大回撤 -7.4%,多头超额胜率 73.3%。[59][62] 5. **GRU+GAT_SA加权_考虑财务模型 (基于DP特征集)**,10日RankIC 11.4%,年化RankICIR 6.2,多空对冲年化收益 49.2%,多空对冲信息比率 4.4,多空对冲最大回撤 -4.7%,多空对冲胜率 76.0%,多头超额年化收益 20.3%,多头超额信息比率 2.8,多头超额最大回撤 -4.6%,多头超额胜率 70.0%。[65][66] 6. **PV和G因子合成 (基于GRU+GAT_SA加权_考虑财务模型)**,全市场10日RankIC 12.4%,年化RankICIR 6.0,多空对冲年化收益 66.7%,多空对冲信息比率 6.0,多空对冲最大回撤 -4.5%,多空对冲胜率 82.7%,多头超额年化收益 24.5%,多头超额信息比率 3.3,多头超额最大回撤 -3.9%,多头超额胜率 75.3%。[50][51] 7. **ML_C (综合深度学习因子)**,全市场10日RankIC 14.2%,年化RankICIR 6.3,多空对冲年化收益 72.7%,多空对冲信息比率 6.1,多空对冲最大回撤 -4.8%,多空对冲胜率 82.0%,多头超额年化收益 26.1%,多头超额信息比率 3.1,多头超额最大回撤 -5.0%,多头超额胜率 74.0%。[7][72] 8. **ML_C因子在沪深300样本空间**,10日RankIC 8.6%,年化RankICIR 2.7,多空对冲年化收益 26.4%,多空对冲信息比率 1.9,多空对冲最大回撤 -14.6%,多空对冲胜率 60.7%,多头超额年化收益 12.4%,多头超额信息比率 1.3,多头超额最大回撤 -6.3%,多头超额胜率 57.3%。[73][75] 9. **ML_C因子在中证500样本空间**,10日RankIC 9.4%,年化RankICIR 3.5,多空对冲年化收益 37.9%,多空对冲信息比率 2.8,多空对冲最大回撤 -15.5%,多空对冲胜率 70.0%,多头超额年化收益 13.7%,多头超额信息比率 2.0,多头超额最大回撤 -5.3%,多头超额胜率 66.7%。[73][75] 10. **ML_C因子在中证1000样本空间**,10日RankIC 11.8%,年化RankICIR 4.7,多空对冲年化收益 57.0%,多空对冲信息比率 4.1,多空对冲最大回撤 -12.4%,多空对冲胜率 78.0%,多头超额年化收益 17.3%,多头超额信息比率 2.3,多头超额最大回撤 -8.1%,多头超额胜率 65.3%。[74][75] 11. **行业轮动因子 (5因子等权合成)**,10日RankIC 9.21%,多头年化收益 17.93%,多头年化波动率 25.44%,多头最大回撤 -20.23%,多头胜率 54.67%,夏普比率 0.70,多空对冲年化收益 22.41%,多空对冲信息比率 1.70,多空对冲最大回撤 -9.96%,多空对冲胜率 60.00%。[92][94] 12. **上证50增强 (行业轮动方案)**,超额年化收益 4.95%,超额年化波动率 2.17%,超额信息比率 2.28,超额最大回撤 -1.98%。[5][95][97] 13. **上证50增强 (Barra优化框架)**,超额年化收益 5.82%,超额年化波动率 2.78%,超额信息比率 2.09,超额最大回撤 -3.03%。[99][101] 14. **沪深300增强 (Barra优化框架)**,超额年化收益 6.77%,超额年化波动率 3.29%,超额信息比率 2.06,超额最大回撤 -3.81%。[5][103][106] 15. **中证500增强 (Barra优化框架)**,超额年化收益 10.72%,超额年化波动率 3.78%,超额信息比率 2.83,超额最大回撤 -3.31%。[5][103][109] 16. **中证1000增强 (Barra优化框架)**,超额年化收益 14.41%,超额年化波动率 4.42%,超额信息比率 3.26,超额最大回撤 -3.34%。[5][103][112] 量化因子与构建方式 1. **因子名称:收益率牵引因子**[27] * **因子构建思路**:基于资金流关联网络,通过聚合同状态股票集的收益率信息来构建选股因子。[27] * **因子具体构建过程**: 1. **构建关联状态**:在每个交易日,回看过去20个交易日,根据小单净流入强度将股票分为20种状态。[27] 2. **计算同状态股票集收益**:对于股票A,找到与其处于相同状态的所有股票,计算该股票集合的收益平均值。[27] 3. **计算因子值**:将股票A自身的收益对同状态股票集收益平均值进行回归,所得的残差即为股票A的因子值。[27] $$因子值_A = 残差(收益_A \sim 同状态股票集平均收益)$$ * **因子评价**:该因子具备一定的选股效果,是GAT网络挖掘因子思想的雏形。[27] 2. **因子名称:开源金工特色大小单资金流人工因子(大单残差、小单残差、主动买卖、散户羊群效应、超大单关注度)**[52][53] * **因子构建思路**:基于AshareMoneyFlow基础表,从不同角度人工构建的交易行为因子。[52] * **因子具体构建过程**:报告未提供具体公式,仅列出因子名称及来源报告。[53] 因子的回测效果 *测试区间均为2020年1月1日至2025年11月28日,双周频调仓。[53]* 1. **收益率牵引因子**,10日RankIC 2.3%。[27] 2. **大单残差因子**,10日RankIC 2.1%,RankICIR 1.6。[53] 3. **小单残差因子**,10日RankIC -2.2%,RankICIR -1.9。[53] 4. **主动买卖因子**,10日RankIC 4.8%,RankICIR 3.5。[53] 5. **散户羊群效应因子**,10日RankIC -3.0%,RankICIR -2.3。[53] 6. **超大单关注度因子**,10日RankIC 5.3%,RankICIR 3.9。[53]
Nature子刊:浙江大学杨波/谢昌谕/曹戟团队开发AI模型XPert,精准预测细胞对药物的反应
生物世界· 2026-01-27 16:00
文章核心观点 - 浙江大学研究团队开发了一个名为XPert的双分支Transformer模型,该模型能够准确预测药物诱导的细胞转录组扰动反应,在患者特异性反应预测准确率上实现了高达15.04%的提升,并提供了机制上的可解释性,代表了计算机辅助药物发现和精准医学领域的重大进步 [2][19][20] 传统药物研发的困境 - 传统“一种药物-一个靶点”的研发模式存在局限,因为药物通常与多个分子靶点和通路相互作用,触发复杂的信号级联反应 [4] - 理解全基因组范围内的扰动效应对阐明药物机制至关重要,但高质量临床扰动数据的稀缺及数据中的混杂因素限制了该领域进展 [4] - 早期基于自编码器的深度学习方法虽能消除混杂因素,但存在过度去噪风险,可能掩盖关键生物信息 [4] XPert模型的创新设计 - XPert模型采用双分支Transformer架构,分别编码扰动前和扰动后的细胞状态,从而能区分内在转录模式与扰动触发的调控变化 [6][7] - 模型将每个细胞表示为基因标记的“句子”,并整合了四个关键扰动属性:药物的化学特性、生物特性、扰动时间和剂量 [8] - 模型通过知识引导的异质图弥合化学和生物空间的差距,该图基于两种生物学直觉推断潜在的药物-基因相互作用:蛋白-蛋白相互作用网络中相近的基因反应相似;结构相似的药物通常靶向相似的蛋白质 [8] 卓越的性能表现 - 在基准测试中,XPert一致优于所有基线模型,在最具挑战性的冷细胞设置中表现突出 [10] - 在单剂量-单时间点预测任务中,XPert的皮尔逊相关系数比次优模型TranSiGen高出36.7%,均方误差降低78.2% [11] - 面对训练中未见过的细胞系,XPert比当前最先进模型的平均性能提高了67.54%,展示了强大的泛化能力 [11] - 研究团队发现,基于VAE的方法存在过度校正的局限性,而XPert基于注意力的框架有效避免了这一问题 [12] 精准的多剂量-多时间预测 - XPert支持多剂量-多时间预测,能够精确解析药效轨迹并揭示药物效应背后的关键分子事件 [13] - 以药物伏立诺他为例,PCA分析显示其剂量反应梯度与剂量增加强烈相关,证实了模型预测的准确性 [14] - 模型能准确捕捉剂量变化对基因表达的逆转效应,例如增加伏立诺他剂量会使NRIP1和ELOVL6等基因从上调变为下调 [14] - 尽管临床前和临床数据存在领域转移,但预训练增强了对未见患者的预测,在泛癌种、乳腺癌和白血病中分别实现了2.51%、15.04%和12.58%的性能提升 [15] 揭示临床反应与耐药机制 - 分析显示,对药物来曲唑有响应的患者比非响应者表现出更强的转录组反应 [17] - 通过基于注意力的分析,XPert独特地识别了其他关键耐药生物标志物,如TIAM1、RPCP*1、HK1和CDKN1B,这些在传统表达水平分析中难以发现,为耐药机制提供了新见解 [17] 展望未来 - XPert代表了通过可解释且可泛化的深度学习框架模拟药物诱导扰动效应的重大进步 [19] - 随着进一步发展,该模型有望成为下一代计算机辅助药物发现流程和精准医学平台的核心组件 [19] - 这项研究为个性化医疗开辟了新途径,向“在计算机上模拟药物效果”的目标迈出了坚实一步 [20]
李彦宏接受《时代》专访:AGI可能不存在,中国模型落后的不太多
凤凰网· 2026-01-27 12:39
公司发展历程与战略 - 公司创始人李彦宏于2000年在北京创立公司,目前公司市值达500亿美元 [2] - 公司早期重点为巩固其中国领先搜索引擎的地位,对AI的兴趣始于大学时期,但直到2010年左右才开始将机器学习用于搜索排名,并于2012年左右开始对AI进行实质性大规模投资,当时认识到深度学习的重要性 [2][4] - 公司如今已成为中国领先的全栈式AI企业之一,提供从芯片、云基础设施到模型、智能体、应用和消费产品的全套服务 [3] AI行业观点与趋势 - 2023年全球AI市场规模估计已达2440亿美元,AI芯片公司英伟达市值超过4万亿美元 [3] - 公司CEO认为不存在所谓的通用人工智能(AGI),没有一个模型能够“面面俱到” [2] - 在模型发展上,中国落后的没那么多,但在GPU或AI加速器方面,可能落后美国两到三代 [9] - 基础模型领域最终会像桌面互联网和移动互联网一样进行整合,只剩下少数几个佼佼者,但应用层将会有许多成功的参与者 [7] - 当前行业处于模型爆发期,但终将趋于稳定并走向成熟,当更多模型开发者转向应用层开发智能体时,生态系统便会真正成熟起来 [8] 公司AI模型与产品策略 - 公司发布了文心一言5.0模型,在多个指标上可与ChatGPT、DeepSeek等模型竞争,在创意写作方面甚至被评为第一 [5] - 开发基础模型采取以应用为驱动的策略,不试图“面面俱到”,而是专注于搜索、数字人等特定应用领域并优化模型性能 [5] - 公司认为未来没有任何基础模型能在每个方面都做到最好,但会优化模型使其在最关心的应用方向上表现更好 [5] - 公司积极拥抱开源,其飞桨开源深度学习平台有数千万开发者使用,影响力可与TensorFlow和PyTorch媲美 [8] 公司业务与应用层布局 - 公司认为当前AI价值格局呈金字塔型:大部分价值在芯片层,模型层可能只实现十分之一,应用层实现价值更少,这种结构不健康,必须在应用层创造更多价值以支撑底层技术投入 [7] - 在自动驾驶领域,萝卜快跑自动驾驶出租车已在约22个中国城市运营,并正在中东和欧洲推进国际化扩张 [8] - 自动驾驶技术已到达临界点,具备在拥堵城区大规模部署的能力,且凭借中国有竞争力的供应链,能以低于西方车辆的成本制造自动驾驶出租车,在全球多数城市能实现独特且健康的经济效益 [8] - 公司帮助许多城市建立数据标注中心,雇佣了成千上万的人,以创造新的就业机会 [13] 中美AI发展路径与监管差异 - 美国政策讨论倾向于以“曼哈顿计划”式力量推动AGI领先,而中国政策框架更关注将AI技术普及到社会各领域 [9] - 中国在制造业方面非常强大,AI被用来解决工厂高效率、低成本生产的问题 [9] - 在监管方面,中国采取“事先许可”模式,而美国在部分地区如得州或佐治亚州对自动驾驶出租车运营尚无监管 [11] - 公司CEO认为制定AI监管规则时应非常小心,避免伤害创新节奏,监管者不应走在技术路线图的前面 [12] 行业效率与成本 - 在模型效率方面,中国能够开发出推理成本是美国同行十分之一甚至百分之一的模型 [14] - 中国公司因购买力较弱、竞争更激烈,总是不得不降低推理成本,顺带也节约了能源 [14] - 像DeepSeek这样的中国公司只花了600万美元就做出了V3模型,而Meta在AI上投入了数十亿美元,这代表了两条不同的发展路径 [14] - 公司很早就关注数据中心能效,其在中国数据中心可能是能效最高的,通过让模型更小、推理成本更低来减少电力需求 [14]
浙江小伙给机器人造大脑,2年拿下6亿订单
搜狐财经· 2026-01-27 06:28
行业趋势:机器人替代人工与具身智能兴起 - 在绿城服务、碧桂园服务、万物云等园区,清扫机器人正在替代物业员工,处理重复性高、枯燥、环境恶劣的工作 [3] - 具身智能是一个需求无处不在且庞大的行业,2025年3月5日,“具身智能”首次被写入政府工作报告,成为培育新质生产力的关键方向 [20][40] 公司概况:有鹿机器人 - 有鹿机器人成立于2023年2月,是商用机器人领域的佼佼者 [4][7] - 成立两年便成功实现量产,并累计拿到6.6亿元订单 [5] - 公司已获得创新工场、元璟资本、百度风投等超1亿元天使轮融资支持 [27] 创始人背景:陈俊波 - 创始人陈俊波曾是阿里达摩院自动驾驶业务的核心人物,先后主导研发出物流无人车“小G”和“小蛮驴” [8] - 在阿里任职13年,2015年底负责菜鸟ET实验室,研发无人驾驶物流机器人“菜鸟小G” [13][17] - 其团队打造的“小蛮驴”在2020年首次亮相,两年后实现了一年配送2000万个包裹的目标 [18] 技术路径与产品战略 - 公司目标并非打造功能单一的机器人,而是构建一个具备“大脑”的机器人 [25] - 已形成两条核心产品线:商用巡扫机器人“AI 130”和与阿里云通义千问联合发布的LPLM-10B大模型 [31][34] - “AI 130”商用巡扫机器人首次亮相即斩获约300万元营收 [34] - LPLM-10B大模型如同即插即用的智能升级“魔法插件”,可直接为传统设备和机器人赋能 [34] 商业化进展与市场认可 - 2024年上半年,公司率先在市场上拿下千万元订单,被认定为具身智能赛道诞生后的第一笔高额订单 [27] - 在国际人工智能顶级算法竞赛上,有鹿为中国拿下了9个冠军 [27] 未来发展规划 - 业务重心目前聚焦在to B领域,但看好家庭市场的广阔前景 [37] - 发展路径规划为:先进园区门,然后入单元门,最后叩开家庭门 [37] - 下一阶段目标是实现外卖机器人的商业化应用,计划于今年实现小规模商业化 [37][38] - 外卖机器人设计目标为每小时行驶20公里,能自动使用电梯,完成人类外卖员的所有任务 [37]
吴通控股:目前公司5G消息业务收入占比较小
证券日报之声· 2026-01-26 19:45
公司业务动态 - 吴通控股子公司国都互联的5G消息平台(5G 101平台)已接入DeepSeek、百度文心一言等多模态大模型 [1] - 公司正研究融合业界自然语言处理与深度学习的最新成果,努力将其应用于5G消息领域 [1] - 此举旨在丰富移动信息服务手段,为客户打造“全链路5G消息智能解决方案” [1] 业务发展现状与前景 - 公司5G消息业务的商用价值仍有待验证和逐步实现 [1] - 目前公司5G消息业务收入占比较小 [1]
汇顶科技:公司在AI计算方面拥有扎实的技术基础,已将深度学习技术融入指纹识别等多项产品中
证券日报之声· 2026-01-23 22:15
公司AI技术能力与产品布局 - 公司在AI计算方面拥有扎实的技术基础 [1] - 已将深度学习技术融入指纹识别、音频、触控等多项产品中 [1] - 已形成较强的端侧AI处理能力 [1] 公司未来战略与信息披露 - 公司将持续关注AI相关技术发展趋势和市场需求 [1] - 若未来有新产品发布,公司会及时与投资者分享 [1]
贝仑石油取得基于深度学习的钻井裂缝类型预测专利
搜狐财经· 2026-01-23 14:53
公司专利与技术进展 - 四川贝仑石油工程技术有限公司于2025年8月申请并取得一项名为“一种基于深度学习的钻井裂缝类型预测方法、系统及介质”的专利,授权公告号为CN120997673B [1] - 公司成立于2017年,位于成都市,主营业务为科技推广和应用服务业,企业注册资本为3000万人民币 [1] - 根据天眼查大数据分析,公司目前拥有专利信息2条,并拥有行政许可2个 [1] 行业技术发展趋势 - 石油工程技术领域正积极应用人工智能技术,具体表现为将深度学习算法应用于钻井裂缝类型预测这一核心环节 [1]
美媒:泡沫藏着打通三个学科的密码
新浪财经· 2026-01-22 13:49
早期的理论认为,泡沫中的气泡会沿着一定轨迹滚动,然后停留在某处。这种框架有助于解释为什么泡 沫一旦形成就会"看起来"稳定,就像一块巨石静静地躺在山谷底部一样。不过,对实验数据的深入分析 揭示了一个问题:泡沫的实际行为与这些理论的预测并不相符。宾夕法尼亚大学的工程师们利用计算机 模拟追踪了泡沫中气泡的运动轨迹,结果发现气泡们根本不老实,总在能量景观(描述系统随状态变化 的分布模型——编者注)上"溜达"。按理说气泡应该像滚石下山一样停在"谷底",但现实却是它们一直 在山坡上"散步"。宾夕法尼亚大学化学与生物分子工程系教授、该论文的共同作者约翰·C·克罗克 说:"我们早在20年前就开始注意到这些差异,但我们一直没找到合理的答案。" 泡沫的这种行为困扰了科学界很久,直到AI领域的梯度下降法(常用于AI中,用来递归性地逼近最小 偏差模型——编者注)带来了灵感。从数学角度看,泡沫的运动方式与训练AI常用的"深度学习"过程极 为相似,现代AI系统通过在训练过程中不断自我调整数值参数来进行"深度学习",这一过程不是一味追 求最小误差,而是让系统在一大片能量较平坦的区域里游走,探索各种"解法"。泡沫的气泡在广阔的能 量景观上不 ...
美媒:泡沫藏着打通AI、物理学、生物学的密码
环球时报· 2026-01-22 06:37
文章核心观点 - 宾夕法尼亚大学的研究发现,泡沫中气泡的动态重组行为,其底层原理与人工智能训练、物理学及生物学中的某些过程存在统一性,这一发现可能打破学科壁垒并推动智能材料等领域的发展 [1][2][3] 泡沫传统认知与最新发现 - 早期理论认为泡沫中的气泡会沿轨迹滚动后静止,使泡沫“看起来”稳定 [2] - 宾夕法尼亚大学的计算机模拟发现,气泡并不停留在能量景观的“谷底”,而是持续在“山坡上”移动和重组 [2] - 这种实际行为与理论预测的差异已困扰科学界约20年 [2] 跨学科原理的统一性 - 从数学角度看,泡沫气泡的运动方式与人工智能训练中常用的“深度学习”过程极为相似 [2] - 人工智能系统通过在广阔平坦的能量区域游走来探索各种解法,而非一味追求最小误差,这与气泡在能量景观上不断重组的底层逻辑统一 [2] - 这一共同原理表明,物理、生物和计算机科学可能遵循同一套底层公式 [3] 潜在应用与影响 - 该发现为物理学家设计能适应环境的智能材料提供了新思路,例如可自动调节透光度的窗帘或自动调节保温性能的衣服 [3] - 该发现也可能为生物学家探究生命奥秘(如活细胞内部框架、蛋白折叠、免疫细胞运动)提供新的见解,这些过程可能遵循同样的能量景观驱动逻辑 [3] - 理解泡沫的复杂性可能成为理解科学复杂性的关键,并促进跨学科融合 [3]
十三年布局,一朝反超,谷歌AI崛起的真实故事
36氪· 2026-01-19 19:25
公司关键事件与里程碑 - 2025年8月,公司旗下名为Nano Banana的图像生成器冲上LMArena排名榜首,全球用户生成了数十亿张图片,导致公司算力紧张需紧急借用服务器,该发布被内部称为“成功的灾难”[1][3] - 2025年9月,Gemini App成为苹果应用商店下载量第一,其月活跃用户从7月的4.5亿增长至10月的6.5亿[3][49] - 2025年11月,公司发布迄今最强的Gemini 3模型,在多项指标上超越ChatGPT,并得益于自研芯片大幅降低了模型运行成本,推动公司股价大涨[3][49] - 2023年2月,公司匆忙发布基于LaMDA的聊天机器人Bard,因发布会演示中出现事实错误(关于韦伯望远镜)而翻车,导致Alphabet股价当天下跌8%,市值蒸发约1000亿美元[38] - 2023年4月,公司宣布将Google Brain与DeepMind合并,成立新的谷歌DeepMind,由Demis Hassabis担任CEO,Jeff Dean转任首席科学家[42] - 2024年10月,谷歌DeepMind的Demis Hassabis和John Jumper因AlphaFold获得诺贝尔化学奖,标志着AI对基础科学的历史性贡献[45] 战略布局与关键收购 - 2012年12月,公司在太浩湖的一场秘密竞拍中,以4400万美元收购了成立仅1个月、拥有3名员工的公司DNNresearch,其核心是深度学习宗师Geoffrey Hinton及其两名学生Ilya Sutskever和Alex Krizhevsky[8][10] - 2014年1月,公司以约6亿美元收购了在太浩湖竞拍中的竞争对手、伦敦AI公司DeepMind[24] - 2024年8月,公司通过一笔价值27亿美元的交易,使Transformer论文的关键作者及LaMDA前开发者Noam Shazeer和Daniel De Freitas等约30名研究人员回归谷歌DeepMind,并参与领导了Gemini的开发[41] 技术研发与突破 - 2012年,Geoffrey Hinton团队凭借AlexNet神经网络以84%的识别准确率赢得ImageNet大赛,该算法仅使用4颗英伟达GPU,而公司之前的“谷歌猫”项目用了16000个CPU且准确率为74.8%[12][16][17] - 2017年6月,公司的8位科学家发表了题为《Attention Is All You Need》的论文,提出了Transformer模型架构,截至2025年该论文被引用超过17.3万次,奠定了当今所有大模型的基础[30][32] - 公司自2013年起秘密研发自研AI芯片TPU(张量处理单元),2025年4月发布的第七代芯片Ironwood单颗性能达4,614 TFLOPs (FP8),最多9,216颗芯片可互联成总性能达42.5 Exaflops的集群,能效比第一代Cloud TPU提升30倍,并正与Meta谈判价值数十亿美元的芯片销售[28][47][48] - 与主要依赖文本训练的ChatGPT不同,公司的Gemini模型从一开始就采用文本、代码、音频、图像和视频进行多模态训练[44] 核心人才变动与影响 - 公司联合创始人Sergey Brin于2019年从执行层退休,但在2023年前后因受OpenAI研究员言语刺激而回归,几乎每天参与AI工作,包括研究技术细节、参与招聘及为Gemini挑毛病[39][41] - 2017年Transformer论文的8位作者后来全部离开了公司[32] - 公司对AI产品化持谨慎态度,因担心安全风险(如模型被诱导出歧视性回答)而限制早期模型(如LaMDA)的开放,这导致部分研究员感到沮丧并离职[36] 行业竞争格局 - 2022年11月30日,OpenAI发布ChatGPT,五天内吸引一百万人注册,对公司构成巨大冲击,引发分析师和投资者质疑公司是否会错过AI浪潮[36][38] - 2025年,尽管公司实现反超,但OpenAI后来也发布了更强的ChatGPT,其用户量仍然远超Gemini,AI竞赛仍在持续[56] - 2025年公司发布第七代AI芯片Ironwood并与Meta谈判的消息传出后,竞争对手英伟达的股价当天下跌7%[48]