Workflow
阿里AI四连发,宣布开源电影级视频模型Wan2.2

通义万相Wan2.2视频生成模型发布 - 公司推出电影级视频生成模型通义万相Wan2 2,该模型可控制光影、色彩、镜头语言三大电影美学元素,并支持60多个直观可控参数的组合 [2] - 模型当前单次可生成5秒高清视频,用户可通过多轮提示词完成短剧制作,未来将进一步提升单次生成时长 [2] - 此次开源三款模型:文生视频(Wan2 2-T2V-A14B)、图生视频(Wan2 2-I2V-A14B)和统一视频生成(Wan2 2-TI2V-5B) [2] 模型技术特点 - 文生视频和图生视频模型为业界首个采用MoE架构的视频生成模型,总参数量27B,激活参数14B [2] - 模型由高噪声专家模型和低噪专家模型组成,分别负责视频整体布局和细节完善 [2] - 在同参数规模下可节省约50%计算资源消耗,有效解决视频生成处理Token过长导致的资源消耗问题 [2] - 在复杂运动生成、人物交互、美学表达等维度取得显著提升 [2] 电影美学控制系统 - 首创电影美学控制系统,光影、色彩、构图、微表情等能力达到专业电影水平 [3] - 支持通过关键词组合生成不同风格的画面,如输入"黄昏、柔光、暖色调"可生成金色落日余晖的浪漫画面 [3] - 使用"冷色调、硬光、低角度"等组合可生成接近科幻片的画面效果 [3]