文章核心观点 - Nutanix推出新云原生产品Nutanix Enterprise AI(NAI)扩展其AI基础设施平台,可在任何Kubernetes平台部署,为加速AI工作负载提供一致混合多云运营模式,帮助组织安全部署、运行和扩展大语言模型推理端点,支持生成式AI应用部署 [1] 产品介绍 - Nutanix Enterprise AI可在任何Kubernetes平台、边缘、核心数据中心和公共云服务(如AWS EKS、Azure AKS和Google GKE)上部署,为加速AI工作负载提供一致混合多云运营模式,提高投资回报率 [1] - 该产品利用NVIDIA NIM优化基础模型性能,帮助组织在几分钟内安全部署、运行和扩展大语言模型推理端点,支持生成式AI应用部署 [1] - Nutanix Enterprise AI提供一致多云运营模式,可通过NVIDIA NIM优化推理微服务和Hugging Face开放基础模型安全部署、扩展和运行大语言模型,使客户能在本地或公共云建立企业生成式AI基础设施 [3] - 产品基于基础设施资源提供透明可预测定价模式,与难以预测的使用量或基于令牌的定价不同,有助于客户从生成式AI投资中实现投资回报率最大化 [4] - Nutanix Enterprise AI是Nutanix GPT - in - a - Box 2.0的组件,后者还包括Nutanix云基础设施、Nutanix Kubernetes平台和Nutanix统一存储以及支持客户本地训练和推理配置及规模需求的服务;该产品可在任何Kubernetes环境部署,且与本地部署操作一致 [5] 合作与验证 - Nutanix Enterprise AI可与NVIDIA全栈AI平台一起部署,并通过NVIDIA AI Enterprise软件平台验证,包括NVIDIA NIM;Nutanix - GPT - in - a - Box是NVIDIA认证系统,确保性能可靠性 [7] 产品优势 - 解决AI技能短缺问题,简单性、选择和内置功能使IT管理员可成为AI管理员,加速数据科学家和开发人员的AI开发 [8] - 消除构建AI就绪平台的障碍,通过简单的UI驱动工作流程帮助客户在几分钟内部署和测试大语言模型推理端点,支持NVIDIA NIM微服务和Hugging Face等模型标准,与Nutanix Kubernetes平台原生集成 [8][9] - 减轻数据隐私和安全担忧,使客户能在其控制的计算资源上运行模型和数据,提供直观仪表板进行故障排除、可观测性和资源利用,以及快速安全的基于角色的访问控制,还可在气隙或暗站点环境部署 [9] - 为生成式AI工作负载带来企业级基础设施体验,运行Nutanix云平台的客户可为生成式AI工作负载带来相同的弹性、日常运营和安全性 [9] 关键用例 - 利用生成式AI分析客户反馈和文档,增强客户体验;利用副驾驶和智能文档处理加速代码和内容创建;利用特定领域数据微调模型加速代码和内容生成;利用AI模型加强安全,包括欺诈检测、威胁检测、警报丰富和自动策略创建;利用微调模型对私有数据进行分析,改善分析效果 [10] 产品可用性 - Nutanix Enterprise AI和Nutanix GPT - in - a - Box 2.0目前已向客户提供,更多信息可访问Nutanix.com/enterprise - ai [11] 支持评价 - Hugging Face产品负责人表示,Nutanix和Hugging Face团队的深度合作使Nutanix Enterprise AI客户能够在易于使用、经过全面测试的堆栈中无缝部署最流行的开放模型,现在也可在公共云部署 [12] - IDC基础设施研究副总裁称,Nutanix Enterprise AI旨在提供从企业到公共云的一致体验,为组织在AI旅程的每一步提供用户友好的基础设施平台 [12] 公司简介 - Nutanix是全球云软件领导者,为组织提供单一平台,用于在任何地方运行应用程序和管理数据,可降低复杂性、简化运营,助力公司专注业务成果,受全球公司信赖,为混合多云环境提供一致、简单且经济高效的支持 [13]
Nutanix Extends AI Platform to Public Cloud