AI影视
搜索文档
这家好莱坞公司提供了全新的影视工业AI解决方案
钛媒体APP· 2025-11-11 17:33
全球AI视频生成市场格局 - 2025年全球AI视频生成市场规模突破300亿美元,年复合增长率维持在40%以上高位水平[2] - 市场呈现短视频厂商(如快手可灵、抖音即梦)与通用大模型厂商(如Sora、Google Veo)分而治之的局面,短视频平台凭借庞大流量基础和模板化创作闭环,市场占有率甚至超过技术领跑者[2] - 主流AI视频模型普遍追求短片极致细节以吸引C端用户付费,导致其在面对电影等工业级长片需求时力不从心[2] 主流视频模型的技术瓶颈 - 主流模型在长程视频、多人物、复杂场景中难以维持角色外貌、服装和场景元素的稳定性[3] - 模型缺乏叙事能力,难以理解剧本因果链条和叙事手法,无法匹配相应镜头语言,导致生成内容与导演意图差异巨大[3] - 模型物理规则认知水平不足,其基于2D像素统计规律理解的物理规则无法满足电影工业级别需求[3] - AI视频生成模型发展路径已分化,短程与长程、追求细节与追求叙事、短视频与电影需求催生不同技术路线[3] Utopai Studios公司概况与战略合作 - Utopai Studios是好莱坞AI原生影视工作室,与全球创新投资平台Stock Farm Road共同出资数十亿美元设立合资公司Utopai East,旨在建立全球首个AI原生影视制作体系[4][7] - 公司前身Cybever成立于2022年,2025年更名为Utopai Studios并从AI技术供应商转型为AI原生影视工作室,聚焦用AI技术制作原创内容[4] - Utopai Studios获得好莱坞改革派力量投资,首年实现1.1亿美元预售收入,涵盖史诗电影《Cortés》和科幻剧集《Project Space》等项目[7] - 合作方Stock Farm Road由韩国LG集团继承人与阿联酋Offsets Group创始人联合成立,计划在韩国建设350亿美元级AI数据中心,为模型训练提供算力支撑[7] - 合资公司Utopai East结合韩国成熟影视工业体系与先进AI制作技术,形成韩系产业资本、硅谷创新网络和中东主权资金的产业—技术—资本联动案例[9] Utopai影视模型技术架构 - 模型采用"规划—生成"自回归机制,通过自回归模型作为"导演大脑"负责理解剧本和生成拍摄计划,扩散模型作为"执行引擎"负责高质量画面生成[10][12] - 工作流实现端到端闭环,将剧本拆解为故事板,通过3D-EnGen生成可交互3D场景,再输出可控视频(Previz-to-Video Pipeline)[10] - 规划层与渲染层通过统一状态空间交换信息,规划器输出未来帧几何与语义约束,渲染器生成图像并反馈结果,逐帧保证叙事连贯性与画面一致性[12][14] - 模型严格依据规划层输出的结构化指令生成画面,生成条件包括深度、法线、光流、遮罩、参考帧、相机轨迹等丰富信号[13] 模型定位与创作理念 - Utopai强调AI模型在影视制作中是"协作者"而非"作者",核心是帮助导演更高效精确地表达故事,而非决定故事[16][17] - 实际使用反馈显示导演并未感到被替代,反而被AI实时生成能力激发灵感,能够重写剧本和重新设计节奏[17] - 公司理念是技术扩展人类想象力,让模型与创作者协作而非替代,每个组件都围绕创作流程设计[23] - Utopai产出的所有影视作品均已应用该模型体系,包括由奥斯卡提名编剧执笔的《Cortés》和成功预售欧洲市场的科幻剧集《Project Space》[17] 数据基座与训练方法论 - 模型训练使用大量高质量、带精确标注的3D合成数据,而非通用视频模型常用的网络二维视频数据,使模型能够内化物理规律,避免生成内容出现物理"幻觉"[18] - 训练数据仅使用经授权的专业数据集,确保学习源头高质量和合法性,合作方SFR拥有庞大合规视频数据集与算力基础设施[18] - 训练分为两个关键阶段:几何与语义对齐预训练建立对物理世界的底层理解;多模态指令微调增强对复杂叙事指令的遵循能力[18] - 模型能够对复杂情感和叙事意图进行状态级精确建模,例如协调生成身体姿态、视线方向、镜头语言等要素呈现角色情感转变过程[19] 工作流效率与评估体系 - Utopai实现模型与工作流统一,真实制作场景数据持续优化模型,形成数据、模型、工作流与创作者深度集成的闭环系统[21] - 工作流可实现60%到90%的提效,具体程度取决于内容类型和复杂程度[22] - 公司建立基于专业影视标准的内部评估体系,补充一致性指标、剧本指令遵从度和制作效率跃升指标,超越仅衡量视觉逼真度的通用指标[21] 行业未来展望 - 预计未来数年内workflow agent将在各行业爆发,AI会带来新题材和内容,成功标准在于能否实现80%~90%的自动化[23] - 衡量成功有两个重心:产品是否具有好的审美和体验;效率层面是否能替代80%的行业臃肿重复工作[23] - 未来视频模型将从渲染器发展为统一的理解性系统,具备更强叙事逻辑和理解思考能力[23]
?鲸?娱AI影视?模型已覆盖创意、拍摄、后期全流程
环球网· 2025-09-26 10:29
公司AI影视大模型技术进展 - 公司于9月25日云栖大会AIGC论坛首次对外介绍AI影视大模型系列技术进展 [1] - 该AI影视大模型系列由公司与通义万相协同研发 已覆盖前期创意 中期拍摄 后期制作全流程 [1] - 模型系列具体包括运镜模型CameraWeaver 无穿戴AI面部动捕技术 AI表情增强等技术突破 [1] 前期创意阶段应用 - 针对主创团队用语言描述结合手绘方式耗时较长的问题 公司研发影视级文生图大模型 [2] - 该模型在景别 构图视角等方面设置严苛标准 区别于通用模型追求视觉发散 实现精准控制以还原创作意图 [2] - 模型能精准执行文字指令 形成可视化参考 大幅提升前期沟通与分镜效率 [2] 中期拍摄阶段应用 - 公司研发图生3D场景技术模型 可支持基于单张图片快速生成多机位分镜参考图 [2] - 主创无需重新绘制2D分镜或搭建3D场景 模型能重构3D空间并生成多视角画面 支持任意角度推拉摇移运镜 [2] - 相较传统方法需数周搭建UE虚拟场景 该技术模型2分钟内即可生成高精度3D空间场景 实现数百倍效率跃升且空间透视零误差 [3] - 该技术已应用于内部项目的分镜与虚拟拍摄预演协同 在WorldScore的分数已成为榜单第一 [3] 后期制作阶段应用 - 针对动漫后期 公司推出无穿戴面捕加AI精雕创新方案 通过自研表情生成模型精准还原补全演员微表情与口型细节 [3] - 该方案将过去动画师需花费数周手动调整关键帧的工作 升级为通过表情生成模型自动生成微表情 且达到影视级标准 [3] - 修帧效率大幅提升 该技术已于今年上半年成功应用于项目中 成为提升微表情精度与制作效率的关键工具 [3] 行业影响与公司目标 - AI技术旨在解放创作者 使其从繁琐技术中抽身 专注故事本身 而非替代创作者 [1][3] - 公司的目标是让AI成为创作者的好帮手 共同为观众打造更优质的内容 [1][3]