57.1%的人分不清真假!Runway新视频模型太爆炸
量子位·2026-01-22 13:39

Runway Gen 4.5模型的核心能力 - 全新Gen 4.5模型主打图生视频,在镜头控制和故事叙事能力上显著提升[8][9] - 模型能在5秒内快速生成包含近景、中景、远景三个镜头的视频[11] - 在1000人参与的调查中,只有约一半(57%)的人能分辨出该模型生成的视频与真实视频的区别[11][21] 模型在镜头控制与一致性方面的表现 - 即便镜头晃动,人物面部仍保持较高一致性[12] - 在快速运动场景下,如骑飞行章鱼,人物面部细节稳定不崩坏[13] - 复杂场景中,如巨型毛绒猩猩在纽约街头,镜头比例、透视逻辑及主体与背景的光影一致性处理得当[15] - 模型具备精准的镜头控制能力,包括景别、角度、运动轨迹及切换节奏,输出效果接近真实摄影语言[16] - 通过图像参考和内部优化,模型实现了更稳定的角色一致性,主体在不同镜头中的跨帧效果更佳[16] 模型在长故事叙事与连贯性方面的进步 - 模型长故事表达能力增强,能承载更长时序的内容结构,视频完整度和长度大幅提升[16] - 多个镜头之间的情节逻辑性更强,叙事表达比上一版本更到位[16] - 在长达两分多钟的剧情视频中,即便在同一场景多次切换镜头位置和动作,画面空间关系和镜头衔接依然保持连贯,无明显跳轴或场景漂移问题[18] - 用户制作的视频展示了出色的镜头漂移感,能流畅切换特写与远景镜头[18] 视频生成行业的整体发展趋势 - 从去年年底至今,视频模型能力进入新一轮升级期,各厂商发布节奏密集[23][35] - 行业整体趋势对视频模型的真实度和一致性要求被整体抬高,包括纹理与细节保真、光影与氛围、整体画面质感等[25][26] - 模型越来越注重理解并遵守现实世界的物理规律,在跨帧表现上要求更自然[27] - 声画同步能力显著提升,模型可直接生成配套音频,唇形同步精度提高,即使在侧脸、极端角度或多人对话场景也不易崩坏[28][30] - 局部控制精细化成为重要趋势,支持单独编辑局部区域而无需重新生成整段视频[28] - 支持更长的生成时长,10至60秒的视频生成区间变得常见,竖屏原生视频逐步占据主流[28] - 视频生成方式更加多元,从图生视频到音频生视频,创作路径更加灵活[28] - 主流视频模型的能力已明显接近可商业化应用、具备普适性的水平[34]

57.1%的人分不清真假!Runway新视频模型太爆炸 - Reportify