Seedance 2.0正式发布
格隆汇·2026-02-12 14:28
产品发布与核心升级 - 字节跳动于2月12日正式发布新一代视频创作模型Seedance 2.0 [1] - 模型采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入 [1] - 相比1.5版本,Seedance 2.0的生成质量大幅提升,在复杂交互和运动场景下的可用率更高,物理准确度、逼真度、可控性显著增强 [1] 技术能力与性能亮点 - 模型在复杂场景下具备更高可用率,在多主体交互和复杂运动场景中表现出色,生成可用率达到业界SOTA水平 [1] - 多模态能力显著强化,支持混合模态输入,允许用户同时输入多达9张图片、3段视频、3段音频以及自然语言指令 [1] - 模型可参考输入素材中的构图、动作、运镜、特效、声音等元素,打破传统视频生成的素材边界 [1] - 视频生成可控性大幅提升,指令遵循与一致性表现全面提升,并支持稳定可控的视频延长、视频编辑 [1] 应用场景与商业价值 - 模型深度支持工业级内容创作,支持15秒高质量多镜头音视频输出,具备双声道音频能力,可实现极致拟真的视听效果 [2] - 配合其参考和编辑能力,能大幅降低影视、广告、电商、游戏等场景的内容制作成本 [2]