NVIDIA NIM™ microservices
搜索文档
NVIDIA DGX Spark Arrives for World's AI Developers
Globenewswire· 2025-10-14 07:39
News Summary: NVIDIA founder and CEO Jensen Huang delivers DGX Spark to Elon Musk at SpaceX.This week, NVIDIA and its partners are shipping DGX Spark, the world’s smallest AI supercomputer, delivering NVIDIA’s AI stack in a compact desktop form factor.Acer, ASUS, Dell Technologies, GIGABYTE, HPI, Lenovo and MSI debut DGX Spark systems, expanding access to powerful AI computing.Built on the NVIDIA Grace Blackwell architecture, DGX Spark integrates NVIDIA GPUs, CPUs, networking, CUDA libraries and NVIDIA AI s ...
NVIDIA Launches Family of Open Reasoning AI Models for Developers and Enterprises to Build Agentic AI Platforms
Globenewswire· 2025-03-19 03:10
产品发布核心 - 公司宣布推出具有推理能力的开放Llama Nemotron模型家族,旨在为开发者和企业提供业务就绪的基础,以创建能独立或协同工作解决复杂任务的高级AI智能体 [1] - 新模型家族基于Llama模型构建,通过后期训练增强了多步骤数学、编码、推理和复杂决策能力 [2] 性能与效率提升 - 与基础模型相比,精调过程将模型准确率提升高达20%,并比其他领先的开放推理模型优化推理速度达5倍 [3] - 推理性能的改进使模型能处理更复杂的推理任务,增强决策能力并降低企业运营成本 [3] 行业合作与整合 - 包括埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike、德勤、IQVIA、微软、SAP和ServiceNow在内的领先AI智能体平台先驱正与公司合作 [4] - 微软将Llama Nemotron推理模型和NIM微服务集成到Microsoft Azure AI Foundry中,扩展了模型目录以增强Azure AI Agent Service for Microsoft 365等服务 [7] - SAP利用Llama Nemotron模型推进SAP Business AI解决方案和AI助手Joule,并使用NIM和NeMo微服务提高SAP ABAP编程语言模型的代码补全准确率 [8] - ServiceNow利用Llama Nemotron模型构建性能更高、更准确的AI智能体,以提升各行业的企业生产力 [9] - 埃森哲在其AI Refinery平台上提供NVIDIA Llama Nemotron推理模型,使客户能快速开发和部署针对行业特定挑战的定制AI智能体 [10] - 德勤计划将Llama Nemotron推理模型整合到其Zora AI智能体平台中,该平台旨在支持和模拟人类决策与行动 [11] 产品规格与可用性 - Llama Nemotron模型家族以NVIDIA NIM微服务形式提供,分为Nano、Super和Ultra三种规格,分别针对不同部署需求进行优化 [5] - Nano型号在PC和边缘设备上提供最高准确率,Super型号在单个GPU上提供最佳准确率和最高吞吐量,Ultra型号在多GPU服务器上提供最大智能体准确率 [5] - NVIDIA Llama Nemotron Nano和Super模型及NIM微服务可通过build.nvidia.com和Hugging Face作为托管API获取,NVIDIA开发者计划成员可免费用于开发、测试和研究 [12] 配套软件与工具 - NVIDIA AI Enterprise软件平台提供最新的智能体AI构建模块,包括NVIDIA AI-Q Blueprint,使企业能够将知识与能自主感知、推理和行动的AI智能体连接起来 [15] - NVIDIA AI数据平台是一个可定制的参考设计,用于构建带有基于AI-Q Blueprint的AI查询代理的新型企业基础设施 [15] - 新的NVIDIA NIM微服务优化复杂智能体AI应用的推理,并支持在任何环境中进行持续学习和实时适应 [15] - NVIDIA NeMo微服务提供一个高效、企业级的解决方案,用于快速建立和维护强大的数据飞轮,使AI智能体能从人类和AI生成的反馈中持续学习 [15] - NVIDIA AI-Q Blueprint预计于4月可用,NVIDIA AgentIQ工具包现已在GitHub上提供 [16]
NVIDIA Blackwell RTX PRO Comes to Workstations and Servers for Designers, Developers, Data Scientists and Creatives to Build and Collaborate With Agentic AI
GlobeNewswire News Room· 2025-03-19 03:01
产品发布 - 英伟达推出RTX PRO Blackwell系列GPU 包括数据中心 桌面和笔记本电脑版本 重新定义AI 技术 创意 工程和设计领域工作流程 [1][2][4] - 新产品线涵盖数据中心GPU RTX PRO 6000 Blackwell Server Edition 桌面GPU包括RTX PRO 6000/5000/4500/4000 Blackwell及Max-Q版本 笔记本GPU包括RTX PRO 5000至500 Blackwell系列 [4] 技术规格 - 采用新一代NVIDIA流式多处理器 吞吐量提升1.5倍 集成AI的神经着色器推动AI增强图形创新 [5] - 第四代RT核心性能提升2倍 支持物理精确场景和复杂3D设计 第五代Tensor核心提供每秒4,000万亿次AI运算 支持FP4精度和DLSS 4多帧生成 [5] - 配备更快GDDR7内存 工作站和服务器版本最高96GB 笔记本版本最高24GB 支持处理更大数据集 [5] - 第九代NVENC加速视频编码 第六代NVDEC提供双倍H264解码吞吐量 第五代PCIe带宽翻倍 DisplayPort 21支持4K 480Hz和8K 165Hz显示 [5] - 支持多实例GPU技术 RTX PRO 6000系列可分割为4个实例 5000系列可分割为2个实例 实现安全资源分配 [5][6] 性能表现 - Foster + Partners测试显示Cyclops光线追踪产品运行速度达前代RTX A6000的5倍 渲染速度提升5倍 [10] - GE Healthcare工程团队评估发现重建算法处理时间有望提升2倍 [10] - Rivian表示结合Varjo XR4头显实现沉浸式汽车设计所需清晰度 通过PCIe Gen5支持双600W GPU实现最高像素密度 [11] - SoftServe使用96GB内存版本处理Llama 33-70B和Mixtral 8x7b等AI模型 生产力提升3倍 工作站可处理原需云端完成的工作负载 [11] 应用生态 - 支持NVIDIA AI平台 CUDA和RTX技术 加速超过400个CUDA-X库 推理速度显著提升 [11] - 企业可通过NVIDIA Omniverse和AI Enterprise平台进行本地原型开发 使用NIM微服务获得企业级推理支持 [12][13] - 适用于医疗保健 制造 零售 媒体娱乐等行业 支持虚拟化环境通过vGPU软件为远程用户提供高性能虚拟工作站 [8][9] 上市计划 - RTX PRO 6000 Blackwell Server Edition将通过思科 戴尔 慧与 联想和超微等服务器合作伙伴提供 [14] - AWS 谷歌云 微软Azure和CoreWeave等云服务提供商将在今年下半年提供基于该GPU的实例 [15] - 华硕 技嘉 英业达和广达等系统合作伙伴的数据中心平台将搭载服务器版本GPU [15] - 工作站版本RTX PRO 6000 Blackwell及Max-Q版本4月通过PNY和TD SYNNEX分销 5月通过BOXX 戴尔 惠普和联想等制造商提供 [16] - RTX PRO 5000/4500/4000 Blackwell夏季上市 笔记本GPU将于今年晚些时候由戴尔 惠普 联想和雷蛇推出 [16][17]