Workflow
Serverless AI
icon
搜索文档
Nebius AI Cloud 3.5 Introduces Serverless AI to Give Developers Frictionless Compute for Real-World AI
Businesswire· 2026-03-27 00:42
公司产品发布:Nebius AI Cloud 3.5 “Aether” 核心更新 - Nebius 发布了其全栈云平台 Nebius AI Cloud 的重大更新版本 3.5 “Aether”,旨在减少操作摩擦,使AI构建者能够更快地完成产品原型设计、测试和发布 [1] - 此次更新的核心是引入了无服务器AI功能,使开发者能够几乎即时启动工作负载,无需在运行实验、训练或生产环境部署模型前花费大量时间配置基础设施 [2] - 平台还扩展了其GPU产品,新增了NVIDIA RTX PRO 6000 Blackwell Server Edition,适用于AI推理、工业机器人、物理AI模拟、视觉计算和药物发现等一系列工作负载 [3] 新功能与特性详解 - 新增数据转移服务,通过简化外部S3兼容存储系统与Nebius云区域之间的数据迁移和复制,降低了跨环境工作团队的数据管理开销 [4] - 对其完全托管的Slurm-on-Kubernetes解决方案“Managed Soperator”的配置设置进行了全面改革,为自助服务用户创建Slurm集群时提供了更多选项和更精细的控制 [5] - Managed Kubernetes的可观测性得到更新,为团队提供了额外的集群级控制,同时AI应用程序市场也经过重新设计,以帮助用户更快地获取工作流所需的工具、模型和应用程序 [5] 平台增强与运营优化 - 改进了用户管理和基于角色的权限控制,使组织更容易管理跨团队访问 [6] - 新增了用于计费数据的公共API,简化了财务和运营团队的导出流程 [6] - 所有新功能已在全球Nebius AI Cloud基础设施上提供,其中无服务器服务处于公开预览阶段,NVIDIA RTX PRO 6000 Blackwell Server Edition GPU现已可用 [6] 公司背景与市场定位 - Nebius是一家AI云公司,致力于为开发者和公司构建从数据、模型训练到生产部署的全栈平台,以掌控其AI未来 [13] - 公司基于深厚的内部分技术专长运营,业务规模迅速扩大,全球足迹不断扩展,服务于全球范围内构建AI产品、智能体和服务的初创企业和大型企业 [13] - Nebius在纳斯达克上市,股票代码为NBIS,总部位于阿姆斯特丹 [13]
企业级AI应用开发:从技术选型到生产落地
阿里云· 2025-11-28 21:53
行业投资评级 - 报告认为Serverless是AI原生应用架构的最佳选择,给予积极评价 [27] 核心观点 - AI原生应用开发范式对基础设施提出全新要求,需要以Agent为中心、状态优先、任务驱动协作并接受不确定性 [13][15][17][19][21] - Serverless AI运行时是AI原生应用开发的最短实现路径,具备0运维、轻量、经济、弹性等优势 [26][27][34] - 阿里云函数计算(FC)作为Serverless AI运行时的代表,在异构算力、安全隔离、弹性伸缩等方面相比传统虚拟机和容器方案具有显著优势 [33][43][44] 企业级AI应用开发运行时选型 - AI原生架构需要支持动态弹性、状态持久化、事件驱动等关键特性 [24] - 传统VM/容器运行时存在静态资源分配、状态管理复杂、API驱动等痛点,而Serverless运行时提供免运维、安全隔离、按请求弹性等优势 [26] - Serverless AI运行时涵盖异构算力、开发提效、弹性降本等核心能力 [28] Serverless AI运行时关键技术 - 函数计算FC提供毫秒级冷启动、按请求调度、50+内置多语言运行环境等核心能力 [33] - 安全沙箱容器2.0提供基于虚拟机级别的强隔离,比传统容器更安全 [38][42] - Serverless GPU支持请求感知调度、毫秒级闲置唤醒、1/N卡切分使用,冷启动从分钟级优化至毫秒级 [43][48] - 模型加载加速方案包括镜像加速预热、OSS/NAS模型下载加速等 [51][52] - 智能体运行时提供沙箱即服务、会话亲和/隔离架构,支持百万级Session并发 [56][58] 客户案例实践 - 阿里内部案例:魔搭社区、Qwen、百炼等大规模使用FC构建模型、智能体和AI工具 [88][89] - 吉利汽车案例:基于FC Serverless GPU为AI座舱提供大规模推理服务,成本优化33% [93][100] - 与光同尘AIGC案例:利用FC弹性能力应对十几倍流量波动,实现快速业务验证 [182][184] - 社区内容审查案例:基于AIStudio构建LLM审查系统,支持1000QPS审核需求 [214][222] - 智能家电交互案例:利用AIStudio高吞吐、高并发满足严苛响应要求 [226] Serverless AI原生应用架构 - AI应用组成核心从传统中间件服务转变为知识库、大语言模型、智能体等新抽象 [124][126] - 全栈Serverless架构提供AI网关、Agent代理、可观测等完整能力 [136] - Function AI平台实现从算力到应用的AI全栈升级,支持模型托管、Agent开发等场景 [138][152] 产品能力介绍 - 模型服务:支持100+热门模型在线体验,200+模型一键部署,部署成本降低90% [155] - 多模态创作:提供云端ComfyUI、Stable Diffusion等工具,解决本地环境限制 [158][161] - AgentRun:提供高代码深度定制和低代码快速搭建能力 [163][164] - 可观测体系:提供全链路监控、成本管理、质量评估等配套能力 [169][170] 传统应用迁移实践 - Serverless应用引擎(SAE)支持微服务、单体应用、Job任务等场景平滑迁移 [380][382] - 迁移价值包括简化运维、成本优化(波峰波谷场景降本30%)、提升弹性能力 [397] - 支持从IDC、ECS、EDAS等环境无缝迁移,提供无损下线等企业级特性 [416]
均降40%的GPU成本,大规模Agent部署和运维的捷径是什么?| 直播预告
AI前线· 2025-10-28 17:02
直播活动信息 - 直播时间为2025年10月28日19:30-20:30 [3][5] - 直播主题为探讨大规模Agent部署和运维的捷径 [3][7] - 嘉宾为阿里云云原生应用平台Serverless计算负责人杨皓然(不瞋)和极客邦科技总编赵钰莹 [4] 核心议题与解决方案 - 行业面临Agent大规模落地挑战,包括开发复杂、运维困难、成本高企 [2] - 阿里云提出解决方案可实现百倍启动加速并平均降低40%的GPU成本 [4][9] - 将探讨从“云原生”到“AI原生”的技术跃迁以及智能体的全生命周期治理 [4][8][9] 技术演进与未来展望 - 直播将解读AgentRun技术并分享Serverless AI的未来演进路径 [4][9] - 重点覆盖从开发到运维的智能体全生命周期管理议题 [4][9]