Workflow
大模型训练
icon
搜索文档
英唐智控(300131) - 2025年11月14日投资者关系活动记录表
2025-11-14 20:02
并购战略与业务协同 - 公司拟收购光隆集成和奥简微,以实现技术、市场和生产的协同 [2] - 技术协同:公司在光电信号转换、MEMS振镜、车规芯片有积累,标的公司在光器件、OCS系统、模拟芯片有优势,可技术共享互补 [2] - 市场协同:公司分销能力和客户资源可帮助标的公司加速市场导入,拓展光器件和高端模拟芯片在通信、医疗、车规等市场的销售 [2] - 生产协同:公司可为光隆集成提供MEMS振镜制造产能,为奥简微整合上下游供应链资源 [3] - 并购旨在加速国内研发团队组建,整合人才资源,实现研发、生产、销售全产业链本地化,持续聚焦半导体IDM战略 [3] 标的公司概况与优势 - 光隆集成产品线丰富,包括光开关、光保护模块、光衰减器、波分复用器、环形器等光学器件及OCS光路交换机 [4] - 光隆集成技术先进,在光学仿真、结构设计领域达行业先进水平,可适配MEMS等多技术路径,显著缩短OCS产品研发周期 [4] - 光隆集成是行业内少数可提供全类型光开关产品及全速度等级光开关的企业,产品布局完善,市场地位领先 [4] - 光隆集成已量产机械式、步进电机式、MEMS、磁光等多类型光开关,适配不同场景(如机械式用于光路保护、MEMS适配数据中心) [4] - 生成式AI、大模型训练及云计算爆发式发展带动高端算力需求,光开关市场需求增长迅速,光隆集成有望迎来更大发展机遇 [4] - 奥简微具备较强技术实力,产品性能优异,主要产品包括电源管理模拟芯片、温度传感器,应用于消费电子、通信/服务器、医疗等领域 [5] - 模拟芯片作为连接真实世界与数字世界的桥梁,市场需求巨大,奥简微预计将实现较快业务增长 [5] 核心业务进展 - MEMS微振镜产品直径规格涵盖4mm、1mm、1.6mm、8mm,其中4mm规格产品已进入市场 [6] - MEMS微振镜重点关注车载激光雷达和激光投影领域客户,已在智慧交通LiDAR、手机、车载应用等方面获得头部客户NRE合同,正开展定制研发 [6][7] - 车载显示芯片已在多家头部屏厂成功导入,实现首款车规级TDDI/DDIC的量产落地,改进型版本在测试中表现优异 [7] - 面向消费电子领域的OLED DDIC产品研发取得阶段性进展,有望在2026年一季度之前实现量产 [7] - 存储芯片业务受行业需求影响,较上年同期实现快速增长,代理产品涵盖DRAM、NAND flash、NOR FLASH、EMMC和SSD等多种存储器件,品牌包括佰维、时创意、晶存、东芯、芯天下等 [9] 技术市场与经营情况 - OCS光交换机是一种在光域内直接进行光信号交换的设备,无需光-电-光转换,可实现高速传输,避免电子交换机瓶颈 [8] - OCS技术方案多元化,包括MEMS、硅基液晶、压电陶瓷、硅光方案 [8] - 过去几年OCS交换机市场以MEMS方案为主流,占比50%以上,基于微机电工艺,切换速度几十毫秒,插入损耗约3dB,主要应用于大规模数据中心 [8] - OCS系统核心厂商主要有谷歌、Lumentum等 [8] - 公司经营情况稳健,前三季度研发费用同比增长90.06%,核心是加码显示芯片投入,包括引进人才组建研发团队,加大技术和项目验证资金倾斜 [10] - 显示芯片研发验证周期长,需多环节打磨,持续投入是技术积累的必要过程,短期内对利润规模有阶段性影响,但长期将为业绩增长蓄能 [10][11]
从标准制定到全球出海 联想液冷:被低估的核心玩家
智通财经· 2025-11-13 15:01
液冷服务器板块市场表现 - 11月13日A股液冷服务器板块强势爆发 超频三以20CM涨停领跑 同飞股份涨超10% 英维克涨停 锦富技术、申菱环境等跟涨活跃 [1] - 全球领先的液冷服务器核心厂商联想集团出现短期股价波动 引发市场热议 [1] 液冷技术行业驱动因素 - 生成式AI和大模型训练规模化导致服务器算力密度指数级提升 传统风冷技术难以满足高密度算力集群散热需求 [2] - AI服务器功率可达普通服务器的10-20倍 部分高端AI服务器单台功率突破50KW [2] - 政策层面 "双碳"目标和数字经济发展战略提供强劲动力 国家发改委将高效制冷技术纳入国家重点推广的低碳技术目录 [2] - 工信部提出2025年液冷渗透率从15%跃升至38% 东数西算八大枢纽节点要求100%液冷 [2] 联想集团液冷技术实力 - 公司构建从核心技术研发、整机方案设计到全生命周期服务的全栈式液冷能力 2006年启动液冷技术预研 [3] - 形成覆盖冷板式、浸没式、喷淋式等全技术路线的液冷解决方案 自主研发Neptune海神液冷系统成为行业标杆 [3] - 截至2025年三季度 Neptune海神液冷系统全球部署量已超8万套 覆盖人工智能、超算、政务、金融、汽车等多个领域 [3] - 液冷方案通过ISO、IEEE等多项国际权威认证 参与制定《数据中心液冷技术要求与测试方法》等12项行业标准 [3] 联想液冷方案应用案例 - 为吉利星睿智算中心提供问天海神液冷方案 将全年平均PUE控制在1.1 一年可减少约3179吨碳排放 [4] - 支持华南理工大学液冷数据中心 将能耗降低30% Linpack效率达到理论峰值的90% [4] - 实现出海突破 为巴塞罗那超算中心、韩国气象局、加拿大气象局等项目提供液冷解决方案 [4] - 与NVIDIA、AMD等全球顶尖芯片厂商建立长期战略协作 联合推出ThinkSystem SC777V4Neptune液冷AI服务器 [4] 财务数据与市场前景 - 联想集团2025年一季度财报显示液冷相关业务收入同比增长68% [5] - 高盛研究报告指出全球服务器冷却市场正迎来结构性增长机遇 预计2025-2027年市场规模将实现111%/77%/26%的逐年增长 [5] - 2027年全球服务器冷却总市场规模将达到176亿美元 [5]
曙光 scaleX640 重磅发布,国产算力加速突破
国泰海通证券· 2025-11-07 14:15
行业投资评级 - 电子元器件行业评级为增持 [5] 核心观点 - 曙光scaleX640正式发布,实现万亿大模型训练推理性能30%-40%性能提升,或加速国产算力芯片向训练场景突破 [2][5] - 该产品有效提高推理场景性价比,并且或将加速国产算力芯片向训练场景突破 [5] - 开放的架构生态有望加快国产算力软件生态融合以及超节点结构统一,或助力国产超节点快速迭代 [5] - 产品在客户端的部署或将加速正交架构PCB、浸没式液冷以及高压直流供电技术落地,上游供应链有望受益 [5] 产品性能与特点 - scaleX640单机柜算力密度提升20倍 [5] - 通过30天+长稳运行可靠性测试验证,可保障10万卡级超大规模集群扩展部署 [5] - 采用AI计算开放架构,在硬件层面支持多品牌加速卡,软件层面兼容主流计算生态 [5] 技术创新与供应链影响 - scaleX640超节点采用超高速正交架构、超高密度刀片、浸没相变液冷、高压直流供电等创新技术 [5] - 产品部署或将加速正交架构PCB、浸没式液冷以及高压直流供电技术落地 [5] 投资建议与推荐标的 - 推荐标的包括:寒武纪-U、海光信息、中芯国际、兆易创新、盛科通信-U [5] - 相关标的为芯原股份 [5] 催化剂 - 曙光scaleX640实现国产大模型训练场景落地 [5] - 地方智算中心建设加速 [5]
摩尔线程,IPO获批文
半导体芯闻· 2025-10-30 18:34
IPO进展与财务表现 - 证监会于10月30日同意公司首次公开发行股票并在科创板上市的注册申请,公司IPO申请从受理到过会仅耗时88天 [1] - 2025年上半年公司实现营收7.02亿元,超过2024年全年营收4.38亿元,营收大幅增长得益于市场对大模型训练、推理部署、GPU云服务等需求大幅提升以及新一代GPU芯片实现商业化 [1] - 2025年上半年公司净亏损为2.71亿元,同比大幅下降56.02%,环比减少69.07%,净亏损呈现逐年减少的趋势 [1] - 公司预计最早于2027年可实现合并报表盈利,扣除政府补助收益后预计将收获微利,2025年至2027年预估因政府补助带来的收益分别约为2000万元、2亿元和3亿元 [1] 产品定位与技术发展 - 公司定位于全功能GPU研发,产品线划分为AI智算、图形加速以及面向边缘计算领域的智能SoC三类 [2] - 自2020年10月成立至今,公司已推出以“苏堤”、“春晓”、“曲院”、“平湖”命名的四代芯片,研发重心已从早期的图形加速转向AI智算产品 [2] - 2024年末推出的最新“平湖”架构芯片S5000新增支持FP8精度,片间互联带宽提升3倍至800 GB/s,最大显存容量为80 GB,其性能参数与英伟达H20芯片(互联带宽900 GB/s,最大显存96 GB)接近 [2] 产品结构与收入构成 - AI智算产品是公司核心收入来源,其收入占比从2024年的77.63%大幅提升至2025年上半年的94.85% [3] - 公司主要以集群和板卡的形式销售AI智算产品,2024年和2025年分别销售3套和5套AI智算集群,集群产品毛利率分别为61.26%和65.59% [3] - 2025年销售的5套集群中,1套为“平湖”集群产品、4套为“曲院”集群产品,平均单价超过1亿元,其中单套“平湖”集群在2025年上半年带来近4亿元营收,约占上半年总营收的57% [4] - 图形加速产品收入占比显著下滑,从2024年的22.06%降至2025年上半年的4.68%,公司已着手推进新一代图形芯片的研发与产业化布局 [5] 市场前景与竞争态势 - 公司在AI智算领域正在洽谈的项目合同金额超过17亿元,项目主要为以平湖系列板卡为核心的集群,部分已完成交付或测试 [4] - 图形加速产品面临挑战,第一代产品已进入生命周期末端,第二代产品面临英伟达中低端产品的竞争,且公司出于资源分配考虑未再迭代新架构图形加速产品 [4][5] - 尽管在售的两款消费级显卡毛利率持续为负,但公司认为其作为为数不多公开售卖的国产显卡具有战略意义 [5]
万钢:实现L3、L4级别的自动驾驶,需要智慧的道路和云计算技术平台的支撑
证券时报网· 2025-09-27 19:42
自动驾驶技术发展路径 - 实现L3和L4级别自动驾驶需要智慧道路和云计算技术平台的支撑 [1] - 技术路径为将汽车驾驶过程中的情况与处理方式上传至云平台进行大模型训练 [1] - 通过云平台将升级后的能力反馈至车端,形成车端到云端的闭环以提升自动驾驶能力 [1]
腾讯申请大模型训练库WeChat-YATT商标
企查查· 2025-09-24 14:28
公司动态 - 腾讯科技(深圳)有限公司近期注册"WeChat-YATT"商标 涉及国际分类科学仪器和设计研究 当前商标状态为注册申请中 [1] - WeChat-YATT是腾讯微信团队开源的一个专注于大模型训练的软件库 [1] 技术布局 - 公司通过商标注册强化大模型训练工具的知识产权保护 体现对人工智能基础设施的战略投入 [1]
放榜了!NeurIPS 2025论文汇总(自动驾驶/大模型/具身/RL等)
自动驾驶之心· 2025-09-23 07:34
自动驾驶 - FutureSightDrive提出时空思维链技术用于自动驾驶视觉思考[2] - AutoVLA开发端到端自动驾驶视觉-语言-动作模型 具备自适应推理和强化微调能力[4] - 阿里与西交联合研发FSDrive系统 论文编号2505.17685[6] - UCLA团队推出AutoVLA框架 论文编号2506.13757[7] - 清华AIR与北航等机构开发双边网格驾驶场景高斯泼溅技术[13] 视觉感知推理 - OmniSegmentor构建多模态语义分割灵活学习框架[16] - 水牛城大学与中科院研发YOLOv12注意力中心实时目标检测器 论文编号2506.05280[18] - 南开大学程明明团队提出DFormer模型 论文编号2509.15096[19] - PixFoundation 2.0研究视频多模态大模型在视觉定位中的运动使用机制 论文编号2509.02807[20][33] 视频理解 - DeepTraverse采用深度优先搜索网络实现算法化视觉理解 论文编号2506.10084[25] - 英伟达与台湾大学开发ThinkAct视觉-语言-动作强化推理系统 论文编号2507.16815[27] 图像视频生成 - Fast and Fluent Diffusion通过卷积解码和拒绝微调提升扩散语言模型效率 论文编号2509.15188[34][63] - AutoEdit实现图像编辑超参数自动调优[31] - OmniSync通过扩散变换器实现通用唇形同步 论文编号2505.21448[36][38] 具身智能 - DeepMind推出自改进具身基础模型 论文编号2509.15155[46][50] - 复旦与上交等机构开发ForceVLA力感知混合专家模型 用于接触式操作 论文编号2505.22159[48][51][64] 大模型训练 - Scaling Offline RL通过高效表达捷径模型扩展离线强化学习 论文编号2505.22866[40][44] - 研究发现在机械推理中LLM世界模型存在输出层脆弱性 论文编号2507.15521[40][62] 大模型微调 - 卷积解码和拒绝微调技术提升扩散语言模型性能 论文编号2509.15188[42][63] - 联邦学习框架实现自适应LoRA专家分配与选择 论文编号2509.15087[42][55] - 康奈尔大学开发差分隐私联邦低秩适配技术 论文编号2507.09990[44] 医疗诊断评估 - 构建3D肿瘤中心视觉问答医疗基准测试VLM诊断能力 论文编号2505.18915[39][44][57] - DeepTumorVQA项目评估视觉语言模型临床诊断准备度[39][44][57] 文档理解与安全 - STEM-POM评估语言模型在文档解析中的数学符号推理能力 论文编号2411.00387[55][65] - AgentMisalignment测量基于LLM智能体的行为错位倾向[55] - 概念级可解释性技术用于审计和引导LLM响应 论文编号2505.07610[54] 代码生成 - SBSC逐步编码方法提升数学奥林匹克竞赛性能 论文编号2502.16666[60] - 卷积解码和拒绝微调技术优化扩散语言模型代码生成 论文编号2509.15188[60][63] 强化学习 - 强化视觉潜在规划实现视觉-语言-动作推理 论文编号2507.16815[23][27][65] - 扩展离线强化学习通过高效表达捷径模型 论文编号2505.22866[40][44] 持续学习 - 持续学习技术改进多模态大语言模型 论文编号2410.19925[53][56] - 研究分布外泛化在ARC类任务中的挑战 论文编号2505.09716[66] 人机交互 - 实时直观AI绘图系统整合形式与上下文意图增强人类创造力 论文编号2508.19254[54] - 公平摘要技术平衡提取式摘要的质量与多样性 论文编号2411.07521[66]
但我还是想说:建议个人和小团队不要碰大模型训练!
自动驾驶之心· 2025-09-21 00:03
大模型应用策略 - 对于小规模团队,部署开源大语言模型结合检索增强生成技术已能满足99%的需求,在触及开源模型性能边界前不建议进行模型微调[2] - 若开源模型在特定垂直领域效果不佳,应优先尝试检索增强生成技术和上下文学习等低成本方案,而非直接进行模型微调[3] - 建议将最复杂的任务分配给o1系列模型,将需要较高智能的任务分配给4o等第一梯队模型[3] - 除付费模型外,可考虑采用DeepSeek、豆包、Qwen等国产开源大模型[4] - 基础模型能力的每次重大提升都如同一次技术版本更新,从业者需敏锐识别现有模型能力与业务需求的差异[6] - 应避免在低收益赛道进行无意义投入,采取错位竞争和降维打击策略更为有效[7] 核心技术趋势与人才需求 - 检索增强生成和智能体技术是当前大模型领域最具代表性的技术,企业对掌握这些技能的人才需求高涨[8] - 行业正积极构建技术社区,汇集来自上海交通大学、清华大学、北京大学、上海人工智能实验室、香港科技大学、香港大学等顶尖高校及阿里千问、美团LongCat、深度求索DeepSeek、字节豆包、百度文心一言、月之暗面Kimi等头部企业的专家[10][43] 技术社区资源体系 - 社区提供集视频、图文、学习路线、问答、求职交流为一体的综合型大模型技术平台[8][10] - 技术学习路线图全面覆盖检索增强生成、智能体、多模态大模型三大方向,包括Graph RAG、知识导向RAG、多模态RAG、推理RAG、智能体强化学习、多模态智能体、多智能体等细分领域[10] - 社区已邀请40余位学术界和工业界专家,计划不定期举办行业大佬直播分享活动[41][43] - 提供大模型相关工作岗位推荐和行业机会挖掘服务,助力职业发展[13][44]
算力“好兄弟”存储发力:先进存力中心建设加速
21世纪经济报道· 2025-08-25 12:52
文章核心观点 - 数据作为基础性战略资源和关键生产要素 其价值释放与高效利用已成为推动经济社会高质量发展的核心动力 但数据生产量与存储资源扩充速度不匹配 存在数据"应存未存"现象 同时数据质量和规模是AI发展的关键[1] - 大模型训练对存储提出毫秒级延迟 TB级带宽 EB级扩展要求 推动全闪化 AI数据湖 内生存储安全等技术同步发展[2] - 国内存储产业呈现稳健增长态势 存力总规模增速超20% 结构持续优化 闪存占比提升 行业应用呈现分层演进趋势[3] - 大模型应用需求涌现 需要海量多模态数据 非结构化数据价值凸显 但处理流程复杂 需要集约化建设打破数据孤岛 数据流通是关键环节[4] - 数据留存率下滑 存储空间利用率提升 面临低延迟高吞吐存储性能和大规模存储需求挑战[5] - 先进存力中心建设启动 需完善数据治理体系 深化存算协同 探索量子存储 DNA存储等先进技术 加大闪存技术研发投入[6] - 构建存算协同新模式 采用AI数据湖存储技术 全局数据可视编织技术 湖仓一体架构打破数据孤岛[7] - 采用内生存储安全机制 SSD发展触发成本拐点 全闪数据中心成为AI时代战略选择[8] - 先进存力是智能时代数据基础设施核心 需分层推进建设 城市建存力中心 行业建语料库 企业建AI数据湖[9] - 企业通过AI全流程工具链建设AI数据湖 实现自主高效运行[10] 存力发展现状 - 2022-2024年间存力总规模以超过20%的增长率扩张 截至2024年底全国数据存力总规模达1580EB 全年新增380EB 同比增长32%[3] - 闪存在外置存储中占比从2023年25%提升到2024年28% 存储系统由容量驱动向性能导向转型[3] - 存力布局呈现东部引领 中西提速的差异化协同发展态势[3] - 制造 互联网 金融等行业闪存替代节奏快 占比已超45% 教育 医疗 交通等行业在政策支持下稳步优化结构[3] 数据存储挑战 - 数据年产量由32.85ZB增至41.06ZB 增速25% 但数据存储总量由1.73ZB提升至2.09ZB 增速仅为20.81%[5] - 数据留存率由2.89%下滑至2.8% 同比下降3.15% 数据应存未存现象依然存在[5] - 存储空间利用率从2023年59%提升至61% 有效存储空间被进一步压缩[5] - 海量非结构化数据需要低延迟 高吞吐存储性能 数据要素汇聚需要PB级甚至EB级存储规模[5] 技术发展方向 - 推动全闪化 AI数据湖 内生存储安全等技术同步发展[2] - 探索量子存储 DNA存储等先进存储技术应用 打造存算一体化示范项目[6] - 聚焦闪存技术 架构 AI融合 内生安全等关键技术 加大研发投入[6] - 采用全局数据可视编织技术实现多源数据全局可视可管[7] - 构建湖仓一体架构打破数据孤岛[7] - SSD发展触发成本拐点 全闪数据中心成为AI时代战略选择[8] 应用实践案例 - 华为联合国内某车企进行联合创新 把城市数据和行业数据汇聚到统一平台 构建可信数据流通空间 实现新能源汽车安全隐患派车等安全监管服务 数据脱敏后提供金融保险 汽车销售等价值变现[9] - 华为已有多个存力中心上线或逐步上线[9] - 企业通过AI全流程工具链建设AI数据湖 令整体运行更自主高效[10]
国内AI算力市场需求——云厂训练和推理投入分配情况解析
傅里叶的猫· 2025-08-24 20:31
国内AI算力训练市场格局 - 训练市场进入下半场和淘汰赛最后阶段 由大厂主导 若无大厂订单支撑可能陷入停滞 [2][3] - 英伟达在训练领域占据主导地位 主流使用B卡 H卡和A卡需求仍存在 [2] - 国内训练需求超过60%由阿里拉动 其次是字节和腾讯 [2] - H公司训练卡效果与英伟达存在较大差距 短期内难以显著提升市场份额 [2] AI六小龙状况及影响 - 六小龙正在大规模退租训练资源 对训练市场造成不良影响 [3] - 六小龙资金状况不容乐观 仍处于争取用户和拓展市场阶段 商业化程度较低 [3] - 月之暗面专注国内to C市场 MiniMax更关注国际市场 [3] - 月之暗面需支撑C端APP推理需求 减少训练投入在情理之中 [3] 大厂训练投入策略 - 腾讯坚持投入训练下一代混元模型 [3] - 阿里巴巴和字节竞争激烈 大模型训练呈现零和博弈态势 [3] - 训练市场零和博弈对英伟达B卡供应链公司带来较大冲击 [3] 推理市场现状与挑战 - 推理算力需求未如预期大幅增长 年初的AI热潮未能持续 [3][4] - 元宝APP增长势头放缓:第二季度MAU从2358.3万增至2502.5万 增幅仅6% 月均下载量从1343.3万下跌54%至617.5万 [4] - 腾讯对元宝等AI应用投入趋于温和 不再进行激进流量推广 [4] - 海外下架二手A100和H100快速进入国内市场 预计H100价格从210万降至170-160万 2026年可能降至100万 [4] - 二手训练设备转为推理设备将对合规卡(H20/4090/5090)带来较大冲击 [4] 长期推理市场展望 - 推理算力成本大幅降低将刺激下游AI应用客户使用 [5] - 海外下架训练设备转为推理设备将进一步推动推理算力成本下降 [5] 企业训练推理投入分配 - 阿里巴巴训练推理投入比例为8:2 80%预算用于训练集群 [5] - 字节训练推理预算比例约为50:50 包括海外集群 [5] - 腾讯训练推理投入比例约为2:8 所有应用目前均处于消耗状态 [5] - 月之暗面训练推理投入比例为7:3 [6] - 智谱训练推理投入比例为9.5:0.5 [6] - 阶跃星辰训练推理投入比例为9.5:0.5 [6] - 百川训练推理投入比例为4:5 [6]