Workflow
Mixture-of-Experts(MoE)专家混合架构
icon
搜索文档
阿里再开源,全球首个MoE视频生成模型登场,电影级美学效果一触即达
机器之心· 2025-07-29 14:38
模型发布与开源 - 阿里发布全球首个开源的MoE架构视频生成模型Wan2.2 具备电影级美学控制能力[2][3] - 模型遵循Apache 2.0开源协议 用户可通过Hugging Face和阿里魔搭社区下载使用[4][20] 技术架构创新 - 首次在视频扩散模型中引入Mixture-of-Experts(MoE)架构 通过多个专家模型分担去噪过程[11][12] - 采用自研Wan2.2-VAE编码器 压缩率达到16×16×4 支持文本生成视频和图像生成视频两种模式[18] - 模型参数量达50亿 生成分辨率高达720P/24fps 可在消费级显卡(如4090)流畅运行[18][19] 数据与性能表现 - 训练数据量相比Wan2.1大幅提升:图像数据增加65.6% 视频数据增加83.2%[14] - 数据扩展显著增强模型在运动表达、语义理解和美学表现等多维度的泛化能力[15] - 融入特别筛选的美学数据集 标注光影、构图、色彩等细粒度属性 支持用户定制审美偏好[16] 市场定位与反响 - 模型被列为当前市场最快速的720P/24fps生成模型之一 可同时服务工业界与学术界需求[19] - 开源社区反响积极 用户评价包括"Amazing"、"Huge congrats"等正面反馈[7][10]