Workflow
开源AI生态
icon
搜索文档
黄仁勋“带货”Rubin,A股谁有望受益?
天天基金网· 2026-01-06 13:18
英伟达下一代Rubin平台技术细节与量产计划 - 英伟达在CES 2026上披露了下一代计算架构NVIDIA Rubin平台的技术细节[4] - Rubin平台通过六款全新芯片(NVIDIA Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch)的协同设计,旨在缩短训练时间并降低推理成本[4] - 平台引入五项创新,包括最新一代NVLink互连技术、Transformer引擎、机密计算、RAS引擎以及NVIDIA Vera CPU[4] - NVIDIA Rubin已进入全面量产阶段,预计在2026年下半年上市[2][5] - 相比上一代Blackwell平台,Rubin可以将Token成本降低高达10倍[2][5] - 训练混合专家(MoE)模型所需的GPU数量比前代产品减少了4倍[5] Rubin平台的性能提升与合作伙伴 - Rubin平台引入了面向千亿级推理上下文规模设计的NVIDIA推理上下文内存存储平台,由BlueField-4驱动,旨在提高响应能力、吞吐量和能效友好的扩展[5] - 首批计划在2026年部署基于Vera Rubin实例的云服务提供商包括AWS、Google Cloud、微软、OCI以及CoreWeave、Lambda、Nebius、Nscale等英伟达云合作伙伴[5] - 思科、戴尔、HPE、联想和Supermicro预计将推出基于Rubin产品的服务器[6] - 包括Anthropic、Meta、Mistral AI、OpenAI、xAI在内的多家AI实验室正寻求利用Rubin平台来训练更大、功能更强的模型,并以更低的延迟和成本运行长上下文、多模态系统[6][7] 高速互连与光模块产业链布局 - Vera Rubin平台采用NVLink 6高速网络技术,可将GPU互连带宽提升至3.6 TB/s(双向)[9] - 每台NVLink 6交换机的带宽高达28 TB/s,每套Vera Rubin NVL72机柜配备9台此类交换机,总带宽可达260 TB/s[9] - 为扩展机柜,英伟达推出了采用共封装光学器件的Spectrum-X以太网交换机,基于Spectrum-6芯片构建,每颗芯片提供102.4 Tb/s的带宽[9] - 中际旭创表示,自2025年三季度起,重点客户已开始部署1.6T光模块并持续增加订单,预计2026至2027年其他重点客户也将大规模部署[10] - 新易盛表示,公司在手订单充足,预计1.6T产品在2025年第四季度至2026年将处于持续放量阶段,同时3.2T产品处于预研阶段[10] - 天孚通信在CPO相关配套产品方面有较早布局,相关技术持续迭代升级[10] 高功耗带来的散热与供电需求 - 市场普遍估计Rubin GPU的热设计功耗将提升至约1800瓦,这将推高对供电及散热系统的要求[10] - 科华数据具备风冷、液冷、风液融合、UPS及高压直流等数据中心产品解决方案,能满足多种数据中心应用场景[11] - 根据Omdia统计,科华数据位列2024年全球工业UPS第四以及亚太工业UPS市场排名第一[11] - 麦格米特推出了800V Sider car rack方案,单柜功率570kW[11] - 英维克致力于为云计算数据中心、算力设备提供设备散热解决方案,已实现从冷板、快速接头到冷源等“端到端”的产品覆盖[11] - 英维克的UQU快接头产品已成为英伟达MGX生态合作伙伴,并在2025年OCP全球峰会展示了按谷歌规格设计的CDU产品[11] 物理AI与开源生态进展 - 英伟达CEO黄仁勋称“物理AI的ChatGPT时刻已经到来”,公司更注重解决“AI如何走进物理世界”的问题[2][12][13] - 英伟达推出了开源的物理AI世界基础模型Cosmos,该模型已用海量视频、真实驾驶与机器人数据以及3D模拟做过预训练,能理解世界运行规律并关联语言、图像、3D和动作[13] - 在自动驾驶领域,英伟达发布了NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集,引入了基于思维链推理的视觉语言动作模型[13] - 包括Lucid、捷豹路虎、Uber和Berkeley DeepDrive在内的出行领军者对利用Alpamayo开发L4级自动驾驶技术栈表示兴趣[14] - 在机器人领域,包括Boston Dynamics、Franka Robotics、LG Electronics等全球机器人领军企业正基于英伟达Isaac平台和GR00T基础模型开发产品,覆盖工业、手术、人形及消费级机器人[15] - 黄仁勋强调开源AI生态的重要性,以DeepSeek R1为例,指出开源模型的扩散速度极快,尽管能力比最前沿模型慢约半年,但每隔六个月就会追近一次,且下载和使用量呈爆发式增长[15]
朱啸虎看好中国的开源AI生态
新浪财经· 2025-12-11 11:26
中美AI技术差距现状 - 中美AI技术存在差距,但差距稳定在三到六个月左右的时间 [1][2] - 该差距至少不再扩大 [1][2] 中国开源AI生态发展前景 - 未来几年中美AI技术差距有机会能够缩小 [1][2] - 只要差距在缩小,中国的开源生态肯定会领先 [1][2] - 特别看好三到五年以后中国的开源AI生态 [1][2]
Kimi超过DeepSeek的新模型被指“套壳”Qwen?到底怎么回事儿
虎嗅· 2025-06-17 20:15
模型发布与性能表现 - 月之暗面发布开源代码模型Kimi-Dev-72B,在SWE-bench Verified基准测试中取得60.4%的成绩,创开源模型新纪录,超越DeepSeek等竞争对手 [1] - Kimi-Dev-72B基于阿里巴巴Qwen团队的Qwen2.5-72B模型二次开发,明确标注Base model为Qwen/Qwen2.5-72B [2] - 模型创新主要体现在训练方法上,采用大规模强化学习技术,在Docker环境中自主修复真实代码仓库问题,确保生成代码符合实际开发标准 [3] 技术细节与许可协议 - Kimi-Dev-72B采用MIT协议发布,但其基础模型Qwen-2.5-72B需遵守《通义千问许可协议》,形成"delta权重"发布模式 [4][5] - Qwen2.5系列采用分级许可体系,72B模型包含商业限制条款,要求月活跃用户超1亿时需申请商业授权 [6][7] - Qwen团队后续澄清此为"历史遗留问题",Qwen3系列已全面转向Apache 2.0协议,取消商业限制 [8][10][12] 行业趋势与协作模式 - 训练70B参数级别模型成本达数百万美元,月之暗面选择基于Qwen2.5-72B进行二次开发,集中资源强化核心优势 [15] - 开源策略从限制性许可向完全开放转变,Apache 2.0协议促进商业友好、无限制使用和社区驱动 [17] - 基于优秀基础模型的"二次创新"兴起,大厂与创业公司在开源生态中形成新协作模式 [16][18] 模型应用与改进空间 - 尽管Kimi-Dev在基准测试中表现优异,实际应用中生成的代码有时需调试,对复杂需求理解仍有不足 [16] - 开源社区认为Kimi-Dev的开放权重和透明分享对社区有益,但模型消费者仍需遵守基础模型许可 [15]