支持向量机
搜索文档
研判2025!中国支持向量机行业产业链、市场规模及重点企业分析:小样本高维数据处理显身手,规模化应用需突破效率瓶颈[图]
产业信息网· 2025-10-20 09:25
行业概述 - 支持向量机是一种监督学习算法,核心思想是在特征空间中寻找最优超平面以实现数据区分,具有全局最优性和强泛化能力 [2] - 算法基于结构风险最小化原则,决策边界仅由少数关键样本(支持向量)决定 [2] - 主要分为线性支持向量机和非线性支持向量机两类 [2] 产业链结构 - 产业链上游包括高性能计算芯片、工业相机、图像采集卡、传感器等硬件设备,以及算法库、工具和数据服务 [3] - 产业链中游为支持向量机算法开发与服务提供商 [3] - 产业链下游应用领域涵盖金融、医疗、工业、教育和零售等 [3] 政策环境 - 2024年6月,工业和信息化部等四部门印发《国家人工智能产业综合标准化体系建设指南(2024版)》,提出规范机器学习的多项标准 [6] - 该政策规范了支持向量机的技术发展,促进创新和应用拓展,并保障数据和模型安全 [6] 市场规模 - 2024年中国支持向量机行业市场规模约为4.28亿元,同比增长10.03% [1][8] - 2024年中国国内机器学习平台市场规模约为35.5亿元,同比增长1.14% [5] 竞争格局 - 互联网巨头如百度、阿里巴巴、腾讯凭借资金、技术和数据资源在行业中占据主导地位 [8] - 专注于人工智能技术的企业如九章云极通过技术积累和行业应用拓展了稳定市场 [8] 重点企业案例 - 中科曙光 - 公司旗下中科睿光软件技术有限公司聚焦"云计算操作系统+算力调度"双轮驱动 [9] - 其Cloudview SVM Edition通过虚拟化技术实现资源池化与动态调度,支撑SVM模型训练与推理 [9][10] - 2025年上半年,中科曙光营业收入为58.50亿元,同比增长2.41%;归母净利润为7.29亿元,同比增长29.39% [10] 重点企业案例 - 腾讯控股 - 公司依托腾讯云平台构建"向量数据库+算法模块"的生态体系,VectorDB向量数据库支持海量高维数据存储 [12] - 腾讯云PAI平台提供SVM算法模块,支持多种核函数,在金融风控场景中实现欺诈误报率降低 [12] - 2025年上半年,腾讯控股总营收为3645亿元,同比增长13.69%;毛利为2055亿元,同比增长21.05% [12] 发展趋势 - 支持向量机将与深度学习技术深度融合形成混合模型,并拓展在多模态学习中的应用 [12] - 未来将致力于开发更高效的优化算法和分布式计算框架以提升训练速度和可扩展性 [13] - 量子计算的发展将带来量子支持向量机新机遇,在处理高维数据和复杂问题时具有显著优势 [14][15]
渤海证券研究所晨会纪要(2025.09.30)-20250930
渤海证券· 2025-09-30 09:58
宏观及策略研究:工业企业效益数据点评 - 2025年1-8月规模以上工业企业利润同比增长0.9%,实现由负转正,盈利端进一步企稳[4];其中8月单月利润同比大幅增长20.4%[5] - 利润增长主要受利润率提升推动,1-8月营收利润率为5.24%,同比下降1.9%,但降幅较1-7月明显收窄;同期营业收入保持稳定,同比增长2.3%[5] - 从企业类型看,私营企业、国有企业及股份制企业利润改善势头增强,而外商及港澳台商投资企业利润增速延续边际回落[5] - 在41个工业大类行业中,有17个行业利润总额实现正增长,其中铁路船舶航空航天和其他运输设备制造业、废弃资源综合利用业、有色金属矿采选业利润增速较高[6] - 高技术制造业中,计算机通信和其他电子设备制造业利润增速进一步改善,国内AI企业资本开支加码有望推动半导体产业盈利持续改善[6] 固定收益研究:REITs投资机会分析 - REITs投资主要有三种策略:打新卖出策略、配售持有策略和二级买入交易策略[8];战略投资者主要通过配售长期持有,网下和公众投资者策略更多样,包括打新卖出[8][9] - 打新卖出策略中,上市首日卖出胜率最高;对于首日涨停的REITs,持有至上市后2日卖出赔率更高,但整体收益率均值随持有天数增加幅度较小,边际效应差[9] - 2025年新型基础设施REITs和保障性租赁住房REITs上市首日表现较好,交通基础设施REITs整体表现较差;认购倍数高的REITs首日价格上涨可能性更大[10] - 配售持有策略方面,截至9月22日,74只REITs中有65只实现正收益,胜率达87.84%,收益率均值为31.00%;其中分红收益贡献10.42%,资本利得贡献20.58%[11] - 二级买入策略需注重择时,2025年1月、2月、3月、4月买入并持续持有胜率更高且收益率普遍更高;REITs市场交投活跃度不高,投资时需关注换手率[12] 基金研究:主动偏股基金经理能力圈分析 - 研究通过同花顺全A200日均线及其斜率构建牛熊市识别模型,并以成长指数与价值指数收益差划分成长市与价值市,采用Carhart四因子模型评估基金经理超额收益[14] - 在牛市与成长风格共振阶段,多数基金经理未显著获取正Alpha;在牛市价值市阶段整体表现更优,但该阶段样本较少且处于大盘价值抱团时期[15] - 熊市环境中,若成长风格占优,基金经理整体难以获得正向Alpha;在价值风格熊市中,普遍采取低仓位防御策略,组合波动可控但制约了正向Alpha获取能力[15] - 当前市场处于科技成长板块主导的结构性牛市,风格轮动频繁,建议投资者优先关注牛熊双强型基金经理,并动态跟踪风险控制能力强的产品[15] 金融工程研究:支持向量机应用 - 支持向量机能捕捉因子与收益间的非线性、交互式关系,擅长处理高维特征空间且对样本外数据泛化能力更好;其决策仅由支持向量决定,专注于区分最具鉴别性的市场情形[16] - 支持向量机通过核技巧将低维数据映射到高维空间使其线性可分,避免了显式计算高维坐标,提高了计算效率[17] - 与随机森林对比测试显示,随机森林在训练数据时学习能力更强,预测表现更好;支持向量机泛化能力相对更强,两者均可为量化选股提供预测能力[19] 公司研究:中国稀土深度分析 - 中国稀土是中国稀土集团的专业化上市平台,2025年上半年受益于稀土价格回升,业绩大幅好转,销售净利率明显提升[20] - 短期看,国内进入传统消费旺季,叠加以旧换新等政策,新能源汽车、家电等领域需求有韧性;美国降息减轻高利率压制,海外厂商或扩大库存准备[20] - 长期看,稀土作为战略资源供应刚性较强,全球开采冶炼配额维持低速增长;需求在新能源汽车、风电和人形机器人等领域空间广阔[20] - 公司拥有江华县稀土矿一期保有矿石量2165万吨,资源量22734吨;圣功寨和肥田稀土矿探转采工作推进中;子公司定南大华拥有4400吨/年分离产能[21] - 集团资产注入预期强,公司稀土矿和氧化物产量占集团配额比例分别为2.93%和9.27%,注入空间较大;预计2025-2027年归母净利分别为3.69、5.07、6.64亿元[21] 行业研究:轻工制造与纺织服饰周报 - 包装纸涨价向下游扩散,多家纸厂对瓦楞纸、白板纸等上调价格30-50元/吨,下游二级厂对纸板、纸箱价格上调2%-3%,有助于夯实纸企涨价函落地基础[24] - 美国总统特朗普宣布自10月1日起对进口软垫家具征收30%关税,对厨房橱柜、浴室洗手台及相关建材征收50%关税,但具体细节待进一步跟踪[25] - 中国出口链制造企业优势明显,历次关税政策变化推动企业降本增效和全球化布局,本次变化不改变中国制造业企业的长期全球竞争力[25] - 《智能床垫》国家标准发布,将于2026年3月1日实施,对智能交互、舒适健康性能、安全风险等作出明确要求,有助于规范市场和推动行业健康发展[25]
Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
机器之心· 2025-09-02 14:32
扩展定律的历史溯源 - 人工智能扩展定律的起源可追溯至1993年贝尔实验室发表的NeurIPS论文,该研究通过在不同规模数据集和模型上训练分类器并拟合幂律,首次系统揭示了模型性能与资源投入的关联 [1][3][7] - 论文提出通过预测方法避免高成本训练过程,证明单层及多层网络中错误率与训练数据量在对数曲线上呈现规律性变化,为后续扩展定律奠定理论基础 [10][14] - 研究显示经过12000种模式训练后新网络性能超越旧网络,证明模型规模扩大可提升智能水平,该定律从早期机器学习延伸至现代万亿参数模型(如GPT-4)仍持续有效 [14] 关键研究者与贡献 - 论文一作Corinna Cortes学术引用量超10.4万次,与Vladimir Vapnik合作提出支持向量机(引用7.7万次),并参与构建MNIST数据集 [17][19][20] - Vladimir Vapnik总引用量达33.5万次,提出统计学习理论核心的Vapnik-Chervonenkis理论,其1995年著作《统计学习理论的本质》成为领域里程碑 [25][26] - Lawrence D Jackel(引用4.8万次)与Yann LeCun合作完成高引用的反向传播研究,Sara A Solla(引用1.6万次)提出《Optimal Brain Damage》论文推动神经网络规模优化 [21][23][24] - John S Denker为跨领域天才研究者,涉足量子物理、神经网络及航空安全,拥有多项专利及50余篇论文 [27][28][31] 学术脉络的早期探索 - 扩展定律概念可能早于1993年:心理学领域最早探索学习曲线,Vladimir Vapnik于1960年代已研究样本规模定律,Frank Rosenblatt 1958年感知器论文已描述学习曲线 [34][35][36] - 日本学者甘利俊一1992年论文证明普适学习曲线渐近行为,提出预测熵收敛规律〈e*(t)〉~d/t(d为参数数量),较贝尔实验室研究更早 [38][39] - 扩展定律的发展是跨学科长期积累的结果,从心理学、感知器理论到统计学习与神经网络,经OpenAI等机构大规模验证后形成系统化定律 [41]
他们在1993年就提出了Scaling Law
量子位· 2025-09-02 14:17
Scaling Law历史溯源 - Scaling Law概念最早于1993年由贝尔实验室团队提出,而非普遍认为的2020年OpenAI或2017年百度[1] - 核心理论发表于《Learning Curves: Asymptotic Values and Rate of Convergence》论文,揭示训练误差与测试误差随训练规模增加按幂律形式收敛[4] - 该理论与现代Scaling Law高度一致:通过增加模型参数量(N)、训练数据量(D)和计算量(FLOPS)可预测性提升模型性能[6] 理论框架与实验验证 - 研究初衷为节省分类器训练的计算资源,通过中等规模数据集训练结果外推预测大规模数据表现[8][9] - 提出误差收敛公式:测试误差$\mathcal{E}_{\text{test}}=a+\frac{b}{l^{a}}$,训练误差$\mathcal{E}_{\text{train}}=a-\frac{c}{l^{a}}$,渐近误差a值范围0.5-1[10] - 在线性分类器的布尔分类任务中预测准确率达极高精度[15] - 在多层神经网络(如LeNet)中,仅用12000样本训练即可预测60000样本规模下的CNN性能表现[19] - 任务难度与渐近误差呈正相关,困难任务收敛速率更小(学习更慢)[22] 核心研究人员背景 - Vladimir Vapnik为支持向量机(SVM)主要发明者,1964年与Chervonenkis提出原始SVM算法,1992年在贝尔实验室开发核技巧处理非线性分类[27][28] - Corinna Cortes现任Google Research纽约分部副总裁,2022年当选ACM Fellow表彰其对机器学习贡献[30][33] - John S Denker与Yann LeCun合作完成手写识别经典论文,涉及机器学习、系统安全、好莱坞特效等多领域[35][36][37] 贝尔实验室的技术遗产 - 卷积神经网络与支持向量机均诞生于贝尔实验室,曾存在技术路线竞争[38] - 1995年Vapnik与Larry Jackel以豪华晚餐打赌神经网络可解释性,2000年Vapnik胜出但2005年局势逆转[38] - LeCun作为赌局见证人,亲历了神经网络从质疑到主流的技术演进过程[39]