核心观点 - 可灵AI通过发布大一统多模态模型“可灵O1”和2.6版本的“音画同出”能力,实现了视频创作流程的革命性简化,将视频创作从专业技能转变为人人可及的日常表达 [1][3][9] 技术突破:大一统多模态模型“可灵O1” - 可灵O1是全球首个大一统多模态视频模型,基于MVL理念,打破了传统单一视频生成任务的模型边界 [3] - 该模型将参考生视频、文生视频、首尾帧生视频、视频内容增删、视频修改变换、风格重绘、镜头延展等多种任务融合于同一个全能引擎,实现一站式创作流程 [3] - 用户只需输入自然语言指令,模型即可完成像素级语义重构,例如“把这张白天的照片改成夜晚”、“给主角换一条红裙子” [3] - 模型具备“导演思维”,能记住角色的特征,确保在镜头切换时主体特征稳定,并支持自由组合多个不同主体或与参考图混搭 [3] - 同步升级的可灵图像O1模型也主打特征高度一致,支持纯文本生成或上传最多10张参考图进行融合再创作,确保主体元素稳定和画面氛围统一 [4] - 该系列模型对系列短剧、广告电商、品牌IP等用户是刚需,实现了从灵感构思到最终输出的“一站式闭环” [4] 技术突破:“音画同出”能力 - 可灵2.6模型的“音画同出”能力让角色不仅能动作精准,更能开口说话、发出环境音效,且声音与画面节奏严丝合缝 [5][6] - 该能力重构了传统“先生成无声画面,再人工配音”的割裂工作流,用户输入文本或图片加提示词,即可一键生成包含人声、音效、环境声的完整视频 [6] - 语音当前支持中英文,单次生成最长10秒 [6] - 突破体现在三大维度:音画协同,实现深度语义对齐;音频质量接近专业混音效果;语义理解能准确把握复杂剧情与口语表达 [6] - 模型具备音色控制能力,支持生成说话、对话、旁白、唱歌、Rap等多种声音类型,并可混合环境音效,让创作者能控制角色的语气、情绪和背景音乐 [6] 行业影响与创作范式转变 - 技术将视频创作从专业技能变为人人可及的日常表达 [1] - 图灵奖得主指出,AI本质是“模式识别”的强大工具,不会取代艺术家,但会改变他们工作的方式 [7] - 公司的愿景是“让每个人都能用AI讲出好故事”,其主语是人,旨在通过提升基础模型能力定义人类与AI交互的新方式 [8] - 公司赋予创作者更高自由度的控制权,如调节动作幅度、修改镜头节奏、删除帧、叠加多段生成结果,让声音和画面“同频” [8] - 在艺术节上展映的三支短片由艺术家与可灵超级创作者联动完成,是对未来创作范式的预演 [9] - 此次技术升级可能标志着“用一张图讲一个有声有色故事”时代的开始 [9]
所想即所见,所言即所闻,可灵AI打开全民创作新入口
北京商报·2025-12-30 14:51