可灵2.6模型推出“音画同出”能力 重构AI视频创作工作流
央广网·2025-12-05 14:47
12月3日,可灵推出视频生成2.6模型,该模型提供了里程碑式的"音画同出"能力,彻底改变了传统AI视频生成模型"先无声画面、后人工配音"的工作流 程。它能够在单次生成中,输出包含自然语言、动作音效以及环境氛围音的完整视频,重构了AI视频创作工作流,极大提升创作效率。 ▲ 可灵2.6功能界面 音画协同上,可灵2.6模型生成的视频,在语音节奏、环境音与画面动作上紧密呼应,实现了对画面动态与声音节奏的深度对齐,避免了传统工作流可 能产生的"画面一套、声音一套"的割裂体验。 音频质量上,在支持人声、音效、环境声等多类型声音生成的基础上,生成的音频音质更干净、层次更丰富,整体听感更接近真实的混音效果,满足专 业级创作对声音细节的高要求。 语义理解上,该模型对多种场景下的文本描述、口语表达和复杂剧情有较强的语义理解能力,能够更准确地把握创作者意图,从而输出逻辑更严密、更 贴合用户需求的音画内容。同时,可灵2.6模型在中文语音生成效果上保持全球领先。 一键"音画同出" 广告营销、自媒体、电商等创作场景迎来效率革命 重构AI视频创作工作流 中文语音生成效果全球领先 可灵2.6模型升级了文生音画、图生音画两大功能,输入文本或是 ...