知识蒸馏(knowledge distillation

搜索文档
英伟达全新开源模型:三倍吞吐、单卡可跑,还拿下推理SOTA
量子位· 2025-07-29 13:05
模型发布与定位 - 英伟达推出开源模型Llama Nemotron Super v1 5,专为复杂推理和agent任务设计,在科学、数学、编程及agent任务中实现SOTA表现 [2] - 模型吞吐量提升至前代的3倍,可在单卡高效运行,实现更准、更快、更轻的性能 [2] - 模型为Llama-3 3-Nemotron-Super-49B-V1的升级版本,衍生自Meta的Llama-3 3-70B-Instruct [3] 模型架构与技术 - 采用神经架构搜索(NAS)技术,平衡准确率和效率,降低运行成本 [4] - NAS生成非标准、非重复的网络模块,包含跳过注意力机制和可变前馈网络两类变化 [6][7] - 通过跳过attention或改变FFN宽度减少FLOPs,提升资源受限时的运行效率 [8] - 对原始Llama模型进行逐模块蒸馏,构建满足单卡H100 80GB显卡吞吐量和内存要求的模型 [8][9] 训练与数据集 - 模型在FineWeb、Buzz-V1 2和Dolma三个数据集共400亿token的训练数据上进行知识蒸馏,重点关注英语单轮和多轮聊天 [10] - 后训练阶段结合监督微调(SFT)和强化学习(RL),提升代码、数学、推理和指令遵循等任务表现 [10] - 数据集包含公开语料库题目和人工合成问答样本,部分题目配有开启和关闭推理的答案,增强模型推理模式辨别能力 [10] - 英伟达表示数据集将在未来几周内发布 [11] 部署与生态 - 模型专为NVIDIA GPU加速系统设计和优化,利用GPU核心和CUDA库实现显著速度提升 [12] - 模型已开源,开发者可通过build nvidia com或Hugging Face下载体验 [13] - 模型隶属于英伟达Nemotron生态,集成大语言模型、训练与推理框架、优化工具和企业级部署方案 [14] - Nemotron生态推出Nano、Super和Ultra三个系列,分别针对边缘部署、单GPU平衡精度和最大精度数据中心场景 [16][17] 行业应用与合作 - Nemotron已获SAP、ServiceNow、Microsoft、Accenture等企业支持,用于构建企业级AI智能体平台 [17] - 在Amazon Bedrock Marketplace中可通过NVIDIA NIM微服务调用Nemotron模型,支持云端和混合架构运营方案 [17]