Workflow
生成式AI
icon
搜索文档
英伟达发布NVIDIA DLSS 5,图形学迎来“GPT时刻”
第一财经· 2026-03-17 03:33
公司技术突破 - 英伟达发布了全新的实时神经渲染模型DLSS 5,该技术能够为每一个像素注入具有照片级真实感的光照和材质属性 [1][1] - 公司CEO黄仁勋将DLSS 5称为“图形学领域的GPT时刻”,标志着该技术是自2018年实时光线追踪技术推出以来,公司在计算机图形领域最具深远意义的突破 [1][1] - DLSS 5将传统的手工渲染与生成式AI技术相融合,在实现视觉真实感大幅飞跃的同时,保留了艺术家进行创意表达所需的控制力 [1][1] - 此项创新发布的时间点,恰逢英伟达发明可编程着色器25年之后,公司表示正在再次重塑计算机图形学 [1][1] 行业影响 - DLSS 5代表了计算机图形学领域的一项重大范式转变,其影响力堪比生成式AI领域的GPT模型,预示着实时渲染技术将进入一个由AI驱动的新时代 [1][1]
英伟达发布DLSS 5,黄仁勋高呼图形学的GPT时刻来了
华尔街见闻· 2026-03-17 02:52
文章核心观点 - 英伟达在GTC开发者大会上正式发布DLSS 5,公司将其定位为自2018年实时光线追踪以来在计算机图形学领域的“最重大突破” [1] - 该技术旨在通过实时神经渲染模型,在游戏中实现接近好莱坞视觉效果的“电影级”可交互画面 [1] - 公司创始人兼CEO黄仁勋将DLSS 5比作“图形学的 GPT 时刻”,强调生成式AI在视觉表达与艺术可控性之间达成的新平衡 [1] 技术细节与演进路径 - DLSS技术从最初的超采样/AI上采样,演进至帧生成,现已发展到将“材质与光照”也纳入AI学习对象的阶段 [3] - DLSS 4.5已能生成大量像素并实现多倍帧生成(Dynamic Multi Frame Generation) [3] - DLSS 5在此基础上,将神经网络训练为理解场景语义与复杂光材质交互,从而输出具备次表面散射、纤维反射等细腻表现的像素 [3] - 该技术可在实时4K下运行,能理解场景语义(如人物、头发、皮肤次表面散射、布料光泽等)并把“物理感”注入每一帧 [1] - 对玩家而言,在相同或接近的渲染资源下,画面细节和真实感将跃升;对开发者而言,这是新的美术与性能优化工具链 [3] 技术特性与优势 - DLSS 5采用一个端到端训练的AI模型,基于每帧的颜色与运动向量输入,生成带有光照与材质交互的像素结果 [5] - 目标是在实时交互条件下,接近离线影视级渲染的视觉效果 [5] - 系统强调“可控且确定性强”,为游戏艺术家提供强度、色彩分级与局部蒙版等参数,确保画面改动在艺术设定范围内,与通用视频生成模型不同 [5] - DLSS 5会集成到现有的Streamline框架,与DLSS、英伟达Reflex等共用,以降低开发者的适配成本 [3] - 该技术支持在现有RTX平台上运行,但高质量表现更依赖于高端GPU的算力与带宽 [3] 商业化进程与行业支持 - DLSS 5将于今年秋季面向主流游戏推出 [1] - 已获得包括Bethesda、CAPCOM、网易、腾讯、育碧等大型厂商的支持 [1] - 公司通告中列出多款支持或计划支持的作品,如“Starfield”、“Resident Evil Requiem”、“Assassin‘s Creed Shadows”、“Hogwarts Legacy”等 [5] - 包括大型一线厂商在内的合作伙伴已参与或测试集成 [5]
英伟达发布NVIDIA DLSS 5
华尔街见闻· 2026-03-17 02:34
公司技术突破 - NVIDIA推出DLSS 5,引入全新的实时神经渲染模型,能为每一个像素注入具有照片级真实感的光照和材质属性 [1] - 该技术被公司创始人兼首席执行官黄仁勋称为“图形学领域的GPT时刻”,将手工渲染与生成式AI完美融合 [1] - 这是自2018年实时光线追踪技术首秀以来,公司在计算机图形领域取得的最具深远意义的突破 [1] 行业意义与影响 - DLSS 5被定位为自NVIDIA发明可编程着色器25年后的又一次重塑计算机图形学的重大创新 [1] - 该技术在实现视觉真实感大幅飞跃的同时,保留了艺术家进行创意表达所需的控制力 [1]
腾讯研究院AI速递 20260317
腾讯研究院· 2026-03-17 00:01
行业核心动态:AI智能体与下一代模型架构的演进 - 谷歌与微软联合推出并开源WebMCP协议,使AI智能体可通过API直接调用网页底层功能,无需依赖截屏或模拟点击等低效方式 [1] - 智谱推出为OpenClaw龙虾场景深度优化的GLM-5-Turbo模型,强化工具调用、长链路执行等能力,盲测中90%用户认为其优于其他国产模型 [2] - 月之暗面发布注意力残差(AttnRes)论文,用动态注意力机制替代传统残差连接,在Kimi Linear架构上验证后使GPQA-Diamond基准提升超20%,计算效率相当于1.25倍算力基线 [3] - Sam Altman预言下一代AI架构将彻底颠覆Transformer,性能跃升不亚于当年Transformer对LSTM的颠覆,并认为AGI可能在两年内降临 [10] - 后Transformer架构竞争已启动,例如Mamba第三代架构推理吞吐快5倍,英伟达全线新模型切换混合架构 [11] 智能体(Agent)生态与应用发展 - 智谱同步发布针对Agent场景的龙虾套餐(个人版和Team版),以解决tokens消耗高的问题,并推出企业级Claw安全管理体系 [2] - 腾讯元宝App更新后,用户可将OpenClaw龙虾接入“元宝派”社交功能,实现多人共同养虾、龙虾互动的社交化Agent体验,生态从“人+Bot”扩展为“人+Bot+龙虾” [4] - 腾讯电脑管家上线“龙虾管家”功能,为OpenClaw提供全套安全防护,包括文件保护、端口暴露检测等,针对当前38万个OpenClaw实例公网暴露的安全隐患提供解决方案 [5][6] - UniPat AI开源SWE-Vision极简视觉智能体框架,仅用两个工具和约五百行代码,通过让多模态模型编写Python代码来分步处理视觉任务,显著提升基础感知任务精度 [7][8] 模型与智能体能力突破 - 陈天桥旗下MiroMind发布MiroThinker-1.7和H1重型推理智能体,在BrowseComp(88.2%)、GAIA(88.5%)等基准上刷新SOTA [7] - MiroMind H1采用智能体原生训练和以验证为核心的重型推理模式,在实测中提前15天预测黄金价格误差仅0.08% [7] - 智谱GLM-5-Turbo在工具调用稳定性和长任务执行方面获得多家大厂内测团队高度评价 [2] - UniPat AI的SWE-Vision框架揭示了视觉领域的新方向:通过test-time scaling(多写代码)而非仅靠延长思考时间来提升任务精度 [8] 行业风险与监管动向 - 315晚会曝光GEO(生成式引擎优化)黑产,商家可通过几篇软文、几小时即可让虚构产品出现在主流大模型的推荐结果中,涉事公司一年服务200多客户 [9] - 被曝光系统套餐价格从2980元到16980元/年不等,高级版每天可生成63篇虚假软文 [9] - 国家市场监管总局已将AI生成广告列为2026年互联网广告监管重点,将开展集中整治 [9]
具身数据独角兽诞生!光轮智能完成10亿元A++及A+++轮融资
机器人圈· 2026-03-16 18:12
公司融资与市场地位 - 光轮智能完成10亿元人民币的A++及A+++轮融资,引入新希望集团、鼎邦投资、奥克斯、鼎石资管等产业投资方,以及建投华科、国方创新、道禾长期投资、清新资本等财务投资机构 [4] - 本轮融资后,公司成为全球首个具身数据领域的独角兽企业 [4] - 融资资金将重点投入物理仿真引擎研发、规模化模型评测体系升级以及全球交付与本地部署能力建设 [4] 公司业务与产品 - 公司是一家生成式AI与仿真技术深度融合的合成数据提供商,致力于为企业落地AI提供自动化、物理精确可控、真实、可泛化的合成数据解决方案 [4] - 公司开创性地将生成式AI与仿真技术深度融合,提供多模态、高质量、大规模、低成本的合成数据 [5] - 公司产品以世界、行为、评测三层架构为核心,建立了覆盖从物理真实仿真、规模化数据生产到模型能力评测的完整链路的具身规模化数据与仿真引擎 [5] 商业化与市场表现 - 公司是全球唯一同时覆盖三项能力(物理真实仿真、规模化数据生产、模型能力评测)并实现规模化交付的企业 [6] - 公司2025年全年营收实现10倍增长,2026年第一季度单季度预计收入超过2025年全年总和 [7] - 公司合作伙伴包括英伟达、谷歌、Figure AI、1X Technologies、字节、阿里、智元机器人、银河通用机器人、丰田、博世、比亚迪、吉利等大模型、机器人及行业头部团队 [7] 行业合作与影响力 - 全球前五的世界模型团队均已与公司展开合作 [7] - 国际主要具身智能团队中超过80%的仿真资产与仿真合成数据来自光轮智能 [7] - 本轮引入的产业场景方将公司的具身数据生产与物理测量能力延伸至更广泛的真实应用场景,拓展了数据与仿真资产的来源边界 [7]
Figma与HubSpot CEO称不惧AI智能体风险 但公司文件却显示相反态度
新浪财经· 2026-03-16 16:48
AI智能体对企业级软件行业的竞争风险披露现状 - 今年以来已有27家软件公司在证券文件中将AI智能体列为竞争风险,而去年同期仅为7家,这表明行业对AI智能体威胁的认知和披露正在快速增加 [3][13] - 过去两年已有超过200家软件公司在文件中将AI列为风险因素,但专门针对AI智能体的风险提示才刚刚开始出现 [4][14] 企业管理层的公开表态与监管文件存在差异 - 多家公司管理层在公开场合(如财报电话会)淡化AI威胁,但在向SEC提交的正式法律文件中(如10-K年报)则明确提及来自AI智能体的竞争风险 [3][7][13][15] - 这种现象并非新现象,SEC要求披露风险因素的规定为管理层提供了法律保护,使其能在公开场合做出更乐观的预测 [11][21] 具体公司案例:Figma - Figma在10-K年报中指出,AI智能体“可能改变人们访问和使用数字产品的方式,从而降低对传统软件应用的依赖” [3][13] - 其股价目前低于去年IPO发行价,部分原因是市场担忧其销售增长 [3][13] - 然而,其CEO在同日财报电话会上对AI智能体颠覆行业的可能性轻描淡写,并提醒客户目前不应将关键任务交给无人监督的AI智能体 [3][4][13][14] 具体公司案例:Adobe - Adobe在1月年报中表示,公司正面临“来自生成式AI与智能体AI解决方案提供商的日益激烈的竞争”,若产品无法有效竞争,销售额可能下滑 [7][15] - 尽管其AI相关收入已开始大幅增长,且截至2月27日的第一季度整体销售额增速略高于此前季度,但公司股价今年以来仍暴跌28% [7][15] - 即将卸任的CEO在投资者电话会上则强调公司产品“经过独特设计”,可满足充满AI智能体的世界中企业的需求 [7][15] 具体公司案例:HubSpot - HubSpot在2月提交的年度文件中披露,客户可利用AI自行搭建内部CRM工具,公司面临让客户相信其产品优于通过AI(如“氛围编程”)开发的替代方案的挑战 [8][17] - 其股价在过去半年已蒸发近一半,截至12月31日的季度,销售增速环比下滑1个百分点 [8][16] - 然而,其CEO在2025年11月的财报电话会上表示,公司已“做好在AI时代引领行业、实现长期稳健增长的准备” [7][15] 具体公司案例:Workday - Workday在3月初的10-K年报中承认,随着AI智能体工具兴起,其人力管理软件的价值可能下降,并在“维持市场差异化能力”上存在潜在问题 [10][20] - 公司提到其新推出的“弹性积分”收费模式(客户通过AI智能体调用服务需额外付费)“可能遭到客户抵触” [10][20] - 尽管面临AI冲击,其业绩目前尚未体现,截至1月31日的季度,收入增速较前几个季度加快约2个百分点,高管对通过“弹性积分”将AI智能体访问行为变现表示乐观 [10][20][21] AI智能体带来的核心竞争与商业模式挑战 - 核心风险在于客户可能利用AI智能体复刻软件功能,或直接从现有软件中提取数据,从而降低对传统软件应用的依赖 [3][13] - AI智能体(尤其是来自Anthropic、OpenAI等的“超级智能体”)能像人类一样使用企业软件,且速度更快、可在后台运行,这可能直接削弱软件厂商的话语权 [4][14] - 新的商业模式挑战出现:说服客户为AI智能体相关的新增费用(如Workday的“弹性积分”)买单,将成为企业软件公司的关键考验 [10][20] - 投资者担心AI智能体提升企业效率导致招聘放缓,进而影响软件厂商的订阅增长 [6][14] 其他相关风险披露 - 部分软件公司(如微软、Zoom、C3.ai)在文件中提及自身所售AI工具若存在潜在缺陷,可能损害公司竞争地位 [11][21]
空天有清音第3期:军工连接器企业的破局之路:224G高速线缆模组
长江证券· 2026-03-16 14:13
报告行业投资评级 - 行业评级:看好 [2] 报告核心观点 - 报告核心观点:AI数据中心内部带宽需求快速提升,正推动高速互连技术从112G向224G代际升级,224G高速线缆模组作为解决短距、高密度、高带宽互连需求的关键组件,其重要性日益凸显,正从“前沿技术方向”转变为“下一代系统设计的关键能力”,为相关连接器企业带来发展机遇 [8][20][26] 根据相关目录分别进行总结 01 224G高速线缆模组到底是什么? - **本质与定义**:224G高速线缆模组是一种用于AI服务器、交换机等高端设备内部连接GPU、CPU、交换芯片等核心部件的高端短距铜互连组件,“224G”指其单通道传输速率达到224Gbps [8] - **产品形态与构成**:该模组并非单纯一根线,而是一个集成化产品,通常包含高速线缆本体、两端连接器、端接结构、屏蔽结构、机械件等,部分方案还会包含有源/增强单元以改善信号质量 [10][15] - **功能与定位**:主要用于设备内部短距离高速数据传输,解决高带宽、高密度、低时延的电连接问题,典型应用包括GPU间、GPU与交换板间等互连,与用于更长距离传输的光模块形成互补 [10] 02 当前点为什么关注224G高速线缆模组? - **核心驱动力**:AI算力集群(如大模型训练和推理)导致GPU间及服务器间的数据交互急剧增加,数据中心内部互连带宽需求快速上升,是推动224G技术发展的根本原因 [20] - **技术升级必要性**:若停留在112G代际,为满足持续增长的带宽需求而仅增加通道数量,将面临布线复杂度、接口密度、功耗和空间的巨大压力,升级至224G可在相同总带宽下减少通道数量,提升系统设计效率 [20] - **产业落地催化**:1.6T网络和机架级AI系统(如NVIDIA GB300 NVL72)正在将224G从研发方向推向系统必选项,使其成为支撑下一代AI互连的关键能力 [20] - **应用场景广泛**:224G技术可广泛应用于生成式AI、机器学习、高性能计算、数字孪生、物联网、流媒体、5G/6G网络、自动驾驶汽车、边缘计算及量子计算等多个前沿领域 [22] 03 224G高速线缆模组的产业价值在哪里? - **价值来源**:其产业价值源于AI算力系统内部互连需求爆发、产品速率升级带来的价值提升,以及机柜级架构下短距高速铜互连重要性上升 [26] - **需求结构变化**:与传统服务器不同,AI服务器内部连接关系(如GPU间、GPU与NVSwitch间)更复杂且多为短距高速互连,催生了爆发性需求 [29] - **产品价值提升**:从112G升级至224G,对高频损耗控制、串扰抑制、精密加工等要求更高,带来材料、连接器和设计复杂度的升级,从而提升产品平均售价 [29] - **铜方案优势稳固**:在短距离场景下,铜互连方案相比光方案仍具有成本低、功耗低、延迟低、布线灵活等不可替代的优势 [29] - **产业链关键环节**:在AI基础设施中,高速线缆模组属于“计算芯片”与“数据中心基础设施”之间的“高速互连”关键环节 [29] - **国内企业进展**:中航光电的224Gbps高速线缆模组已完成送样,正在行业头部客户进行测试,其产品具备高密度小型化、低损耗高速传输等优点;航天电器参编了224G高速铜缆标准 [33]
以「图」破局,HyperOffload定义超节点存储管理新范式
机器之心· 2026-03-16 11:53
文章核心观点 - 生成式AI进入万亿参数时代,大语言模型的推理与部署面临“显存墙”挑战,在超节点异构存储架构下实现海量张量的高效管理和调度成为大模型落地的关键[2] - 上海交通大学与华为MindSpore团队联合发布HyperOffload技术方案,通过创新的“图驱动”分层内存管理,显著提升超节点内异构资源协同效率,并已集成至华为MindSpore 2.8版本,助力实现万亿参数模型的“一键式”加速部署[2][5] 技术方案概述 - HyperOffload专为拥有HBM、DDR及Flash等多级存储的超节点深度定制,其核心是通过Hierarchical Memory Manager模块,将物理隔离的存储介质转化为逻辑上的“资源池化”视图[11] - 该方案突破了以往只针对权重卸载的局限,实现了对推理全流程中KV Cache、中间激活值及优化器状态的深度分层管理[13] - 方案结合选择性参数卸载与自适应激活值交换技术,能让超大规模模型在有限显存的硬件集群上平滑运行,确保训推业务“不断档”[13] 关键技术特性:分层内存管理 - **选择性参数卸载**:引入多维代价模型,根据张量的访问频率、重计算代价及通信带宽损耗进行智能评分,确保高频调用的核心算子驻留高速HBM,海量背景数据有序分布在DDR中[12] - **全要素存储协同与资源池化**:提出统一逻辑视图,能根据硬件拓扑自动感应HBM和DDR的带宽差异,将海量张量跨介质无缝缝合,实现“逻辑显存”对物理显存瓶颈的降维打击[13] - **自适应激活值交换**:针对LLM推理中动态膨胀的KV Cache,通过动态水位线监控机制自动触发交换协议,即便面对超长上下文的极端显存压力,也能通过细粒度的张量换入换出确保业务连续性[14] 关键技术特性:图驱动规划 - **从“被动调度”到“全局规划”**:引入创新的编译驱动图化管理策略,利用MindSpore的静态图编译技术,将资源管理从“滞后的响应”进化为“确定的预演”[16] - **静态图语义增强**:在编译阶段对MindIR静态图进行深度语义扫描和全局张量生命周期分析,精准定位内存峰值点,并提前在图中显式植入SwapIn与SwapOut原语,在推理启动前即确定整个数据调度路线图,消除运行时内存碎片化和系统开销[16] - **算力与带宽的深度重叠**:利用昇腾硬件的异步并行能力,实现近乎完美的无感通信掩盖,系统根据计算图进度预判下一阶段张量需求并提前下达搬运指令,将数据迁移开销完全掩盖在计算任务的执行周期内,极大提升超节点的整体算力利用率和吞吐量[17] 产学研合作与影响 - HyperOffload的发布标志着上海交通大学科研团队与华为MindSpore团队在AI基础设施领域的合作迈向新阶段[19] - 该方案已在多个大规模商用项目中落地,为万亿参数模型的轻量化部署提供了成熟的工业级参考[19] - 未来双方将继续深耕超节点架构下的性能优化,构建更具弹性的端到端推理框架,为生成式AI的规模化应用夯实底座[20]
腾讯研究院AI速递 20260316
腾讯研究院· 2026-03-16 00:01
Claude模型更新与定价策略 - Opus 4.6和Sonnet 4.6模型正式全面开放100万上下文,并取消长文本溢价,所有长度统一标准计费,Opus每百万Token收费25美元,Sonnet每百万Token收费5美元 [1] - 多模态处理能力提升6倍,单次请求支持的图像或PDF页面上限从100页大幅增加至600页,API长请求可自动处理无需Beta请求头 [1] - 在MRCR v2评测中,Opus 4.6以78.3%的得分位列同级模型第一,Claude Code用户可默认开启百万上下文,大幅减少强制压缩次数 [1] OpenClaw平台迭代与安全升级 - OpenClaw 2026.3.12版本发布,控制台UI重构为模块化视图,模型“快速模式”统一抽象跨平台调用参数,并将Ollama/vLLM/SGLang迁入provider-plugin架构为生态扩展奠定基础 [2] - 新增Kubernetes部署starter方案和sessions_yield多智能体调度机制,推动平台从“能跑”向适合长期部署和生产使用转型 [2] - 修复两项高危安全漏洞:设备配对改用短时bootstrap token防止凭证泄露,工作区插件禁用隐式自动加载防止恶意代码执行 [2] Google Maps AI与3D导航升级 - Google Maps引入沉浸式3D导航,借助Street View数据和Gemini AI进行空间理解,实时高亮车道和红绿灯,并新增“透视建筑”功能以帮助复杂路口决策 [3] - 推出Ask Maps自然语言对话搜索功能,基于超过3亿个地点和超过5亿条用户评价,可处理多条件模糊需求并支持多日旅行规划和个性化推荐 [3] - 对比显示,谷歌的优势在于全球数据规模与AI语义理解,而高德则在本土场景密度和城市级数据协同上更为深入 [3] Perplexity放弃MCP协议转向CLI - Perplexity CTO宣布内部放弃MCP协议,转而使用API和CLI,Duetchat v2也删除了MCP集成,YC总裁直言“MCP sucks”,该协议正走向边缘化 [4] - MCP协议的核心问题在于线性上下文成本高,每个工具的Schema和描述会挤占Agent的上下文窗口,且存在初始化不稳定、反复认证和权限管理粗糙等实用缺陷 [4] - CLI经过数十年迭代,具备可组合、可调试、人机通用的优势,LLM本身擅长使用命令行工具,无需额外抽象层即可高效完成任务 [4] 生数科技发布AI漫剧解决方案 - 生数科技Vidu Q3发布全球首个专门针对AI漫剧的解决方案,从底层算法专为漫剧量身定制,旨在解决“角色变脸、画风跳跃、分镜不连贯”等行业痛点,实现30个分镜不穿帮、非人型角色跨镜头稳定复用 [5] - 推出主体库2.0建立标准化角色资产库、提示词优化Bot可一句话生成分镜、口型分层处理实现音画同步,配合解说漫API可实现剧本直出成片 [6] - 即将上线“参考生”功能,可从参考视频学习动作运镜风格以生成原创内容,并与万兴科技联合发布“万兴剧厂”平台以推进AI漫剧工业化 [6] xAI人事动荡与战略调整 - xAI本周又有两位华人联创Zihang Dai和Guodong Zhang离职,11位联合创始人仅剩2人,2026年初的密集离职潮涉及Greg Yang、Tony Wu、Jimmy Ba等核心研究负责人 [7] - 前员工爆料xAI名为扁平实则官僚化严重,员工主动征集Grok改进建议反被冻结账号,与宣传文化严重脱节 [7] - 马斯克承认Grok编程落后竞争对手,表示“第一次没建对要从头再来”,SpaceX收购xAI后计划于2026年6月启动IPO,目标估值超过1.75万亿美元 [7] 谷歌AlphaEvolve在数学领域突破 - 谷歌AlphaEvolve一次性改进了R(3,13)、R(3,18)、R(4,13)、R(4,14)、R(4,15)五个经典拉姆齐数下界,刷新了纪录,部分纪录已尘封20年 [8] - 其核心思路是在算法空间而非图空间进行搜索,利用LLM进化代码,自动发现四大类搜索策略,其中包含人类文献中不存在的新方法 [8] - Hassabis称其为AI数学领域又一里程碑,AlphaEvolve已形成“算法优化算法”的飞轮效应,但目前仅能处理构造性下界,无法证明上界 [8] LabClaw开源AI科研技能库 - 斯坦福与普林斯顿联合开源LabClaw,这是一个面向生物医学的开源科研技能库,内含211个生产级SKILL.md文件,覆盖文献检索、数据分析、实验记录等全流程,一条指令即可在OpenClaw中调用 [9] - 可部署为Always-On Lab Agent持续读取仪器数据和实验记录,自动触发分析流程并生成报告,配套LabOS系统实现XR眼镜与实验机器人的人机协同实验 [9] - 该项目由斯坦福丛乐教授和普林斯顿王梦迪教授团队联合推出,获英伟达支持,将AI辅助科研门槛降至“一条指令”级别 [9] 人形机器人高动态运动突破 - 银河通用人形机器人联合清华大学提出LATENT方法,使机器人仅从碎片化不完美动作数据中自主学习网球技能,无需预编程即可完成多回合连续对打 [10] - 核心创新包括“运动技能空间”将零散动作整合为可组合技能、“隐空间动作屏障”确保高动态击球同时保持自然流畅动作,在成功率和精准度上全面超越基线算法 [10] - 银河通用已形成硬件-模型-生态完整闭环,产业落地覆盖工业、零售、仓储物流、医疗康养等领域 [10] AI对职业替代风险的评估 - Karpathy抓取美国劳工统计局全部342个职业数据,用LLM逐一评估AI暴露分数(0-10分),制作交互式热力图,整体加权平均风险为4.9分 [11] - Anthropic真实使用数据显示,AI暴露最高的全是白领知识型工作,高暴露群体平均时薪比低暴露群体高47%,核心规律是“工作离屏幕越近离失业越近” [11] - AI暴露高不等于立即失业,例如软件开发者虽评分8-9分但就业仍预计增长17.9%,真正危险的是需求固定且AI替代效果好的岗位如数据录入和医疗转录 [11]
国产RDMA技术实现突破,助力超节点加速落地
西部证券· 2026-03-15 10:36
行业投资评级 - 行业评级:超配(维持)[5] 报告核心观点 - 国产RDMA技术实现重要突破,中科曙光发布全栈自研400G无损高速网络scaleFabric,这有望为超大规模智算集群提供高带宽、低时延、真无损、超可靠的底层基础,并助力国产超节点加速落地[1] - 2026年是国产超节点落地的关键一年,RDMA技术的突破有望增加其落地确定性,高性能国产网卡与自适应拥塞控制算法的耦合,有望增强国产AI算力芯片Scale-up层的协同效率[3] - 在生成式AI模型持续迭代、应用加速落地的背景下,推理和训练任务对算力基础设施性能要求上升,具备较强技术积累的行业头部公司有望获得确定性较高、弹性较大的增长[3] 技术突破与产品性能 - **技术突破**:中科曙光发布的scaleFabric是国内首款原生无损RDMA高速网络,在112G SerDes IP、交换芯片、网卡到交换机、驱动与管理软件等关键技术上实现自主研发[1] - **网卡性能**:scaleFabric 400网卡基于PCIe5.0接口,端口带宽达400Gbps,端到端通信时延低至0.9微秒[2] - **交换机性能**:scaleFabric 400交换机单端口带宽达800Gbps,整机交换容量可达双向64Tbps,交换时延约260纳秒[2] - **集群支持**:该网络可满足万卡级AI训练集群性能要求,单一子网互连规模是传统IB网络的2.33倍,支持最大11.4万卡集群部署[2] - **稳定性**:采用基于信用的无损流控机制,链路故障恢复时间小于1毫秒,已支撑近万卡集群持续稳定运行验证超10个月[2] 行业趋势与投资逻辑 - **技术基础重要性**:RDMA等互联技术是国产超节点重要的技术基础,其突破有望加快国产超节点的技术落地节奏[3] - **应用驱动**:生成式AI模型持续迭代,Agent等应用加速落地,推动推理和训练任务对算力基础设施性能要求上升[3] - **关注方向**:报告建议关注算力集成、AI芯片、互联技术及AIDC(智算中心)等领域的相关公司[3] 行业市场表现 - **相对表现**:计算机行业近1个月、3个月、12个月相对沪深300指数的表现分别为-5.58%、6.00%、0.59%[8] - **绝对走势**:行业近一年走势图表显示,计算机行业指数在2025年3月至2025年11月期间,从-23%波动至最高约19%,近期有所回落[7]