Workflow
人工智能视频生成
icon
搜索文档
迪士尼指控Seedance
中国基金报· 2026-02-15 00:24
迪士尼对字节跳动采取法律行动 - 华特迪士尼公司向字节跳动发送停止侵权通知函 指控其利用迪士尼受版权保护的作品训练和开发AI视频生成模型Seedance2.0 [2] - 迪士尼指控字节跳动在未支付报酬的情况下 将其服务预置了包含《星球大战》 漫威等系列角色的盗版库 [2] - 迪士尼外部律师称字节跳动通过复制 分发及创作衍生作品来“劫持”迪士尼角色 并认为已发现的情况仅是“冰山一角” [2] 具体的侵权指控内容 - 信函列举了大量以迪士尼受版权保护角色为主角的侵权视频示例 包括蜘蛛侠 达斯·维达 “尤达宝宝”等 [2] - 迪士尼指出一些用户在社交媒体上公开传播这些侵权视频的例子 [3] - 迪士尼指控Seedance在未经许可的情况下使用其版权素材为商业服务谋利 [4] 迪士尼在AI版权问题上的过往立场与行动 - 迪士尼在捍卫其知识产权免受AI公司侵权方面表现强势 且行动已取得积极成果 [4] - 去年12月 迪士尼向谷歌发送停止侵权通知函后 谷歌删除了数十个未经许可描绘迪士尼角色的AI生成视频 [4] - 迪士尼已明确表示在条款合适的前提下对与AI公司合作持开放态度 [5] 迪士尼与AI行业的潜在合作 - 迪士尼去年与OpenAI达成全面协议 成为其社交视频平台Sora的首个主要内容授权合作伙伴 [5] - 作为交易的一部分 迪士尼同意向OpenAI进行10亿美元的股权投资 [5] 行业对AI视频生成技术发展的反应 - 好莱坞领军人物 著名编剧瑞特·瑞斯在看到AI生成的汤姆·克鲁斯与布拉德·皮特对打视频后发出预警 [6] - 该编剧认为 用不了多久 一个人坐在电脑前就能创造出与好莱坞现有水平毫无二致的电影 若其拥有顶尖才华 结果将是震撼人心的 [6] - 该段引发行业担忧的15秒视频由导演鲁埃里·罗宾逊发布 并称仅靠“Seedance2.0中的两行提示词”便生成 [6]
Seedance2.0产业冲击波
北京商报· 2026-02-11 00:54
字节跳动Seedance2.0模型发布与市场反响 - 字节跳动于2026年2月7日开始小范围内测新一代AI视频生成模型Seedance2.0,其“文本生成多镜头电影级视频”的能力被业界称为“导演级AI” [1][3] - 该模型支持多模态参考与高效创作,可同时上传最多12个参考文件(图片、视频、音频),并自动学习复刻画面构图、角色特征、动作风格和镜头语言 [3] - 模型核心突破在于将AI生成与后期编辑融合,用户可直接修改不满意部分,并支持自动生成适配的背景音乐与音效 [3] Seedance2.0的核心技术能力 - 模型具备自运镜和分运镜能力,支持分镜图直接生成视频,并能在多个镜头中保持角色一致性、灯光连贯性和风格统一 [4] - 在复杂叙事、打斗镜头、短剧生成等场景表现优异,对物理规则的遵循以及转场和人物一致性方面的细节处理获得内容创作者好评 [3][4] - 模型支持首尾帧、视频片段及音频综合参考,能精准复刻运镜逻辑、动作细节与音乐氛围 [3] AI视频模型引发的资本市场热潮 - 2026年2月9日,A股文化传媒板块当天上涨4.79%,领涨所有行业板块,个股如荣信文化、中文在线、海看股份、捷成股份股价收获涨停板 [6] - 2月10日,中文在线股价收于42.34元,较前一日收盘上涨20%并涨停,阅文集团收盘价43.58港元,较前一日收盘价上涨15.4% [1][6] - 市场分析认为,Seedance2.0的火爆为传媒板块注入了新的增长逻辑 [6] 全球AI视频赛道竞争格局 - 海外市场有OpenAI的Sora、Runway的Gen-3、xAI的Grok Imagin1.0(支持10秒720P视频)等模型持续迭代 [1][7] - 国内市场除Seedance2.0外,还有快手的“可灵”3.0系列、生数科技的“Vidu”(在权威测试中排名中国第一全球第二)、Mini-Max的“Hailuo”等竞品激烈角逐 [1][8] - 行业观点认为,中国AI视频模型与海外几乎同时起步,且在多种能力上比海外同行有过之而无不及,很难简单评价孰强孰弱 [8] AI视频模型的应用前景与行业影响 - 视频生成模型用量巨大,成本方面,据创作者透露,一个3秒480P视频约0.3元,720P的3秒视频近1元 [5] - 字节跳动上一代模型Seedance1.0 pro的收费为每千token 0.01元,每生成一条5秒1080P视频3.67元 [6] - 行业布局思路正从视频内容生产迈向世界模型,旨在为未来内容创作、数字人、自动驾驶机器人等场景提供技术底座,长视频生成成为核心方向 [8][9] 技术发展伴随的数据与版权隐忧 - 有创作者测试发现,模型仅凭一张人脸照片就能生成高度相似的声音,并“脑补”出未展示过的场景视角 [7] - 针对用户反馈,字节跳动平台运营人员于2月9日表示,Seedance2.0目前暂不支持输入真人图片或视频作为主体参考,正在进行紧急优化 [7] - 技术进步引发了如何在技术创新与数据合规、版权保护之间找到平衡的行业思考 [7]
Adobe Firefly 更新:文本指令视频编辑器登场
环球网资讯· 2025-12-17 12:25
核心观点 - 创意软件公司Adobe为其人工智能视频生成应用Firefly推送重要更新 通过引入基于文本指令的精准视频编辑、第三方及自研AI模型集成以及协作功能 显著降低了视频创作的技术门槛并提升了创作效率与质量 [1][2] 产品功能更新 - 新增基于文本指令精准编辑的视频编辑器功能 用户输入简单文本指令即可轻松修改视频元素、色彩及镜头角度 例如输入“将红色汽车改为蓝色”即可完成操作 [1] - 新增时间轴视图功能 为用户提供更直观便捷的操作界面 便于调整画面帧、音频及其他视频属性 [1] - 上线协作画板功能 支持团队成员在同一平台上实时协作 共同完成视频创作项目 [2] AI模型与技术集成 - 引入第三方AI模型以提升应用创作能力 包括即将登陆的Black Forest Labs FLUX.2图像生成模型 可提供更丰富多样的图像生成效果 [2] - 集成Topaz Labs的Astra模型 用户目前可借助该模型将视频分辨率提升至1080P或4K标准 以提升视频画质与观看体验 [2] - 自研的Firefly Video模型发挥重要作用 用户可上传起始帧与包含镜头运动轨迹的参考视频 应用能据此复刻相同镜头角度并应用到制作中 [2] 行业影响与用户价值 - 传统视频编辑过程需要手动进行复杂操作 耗时费力且技术要求高 此次更新通过AI技术彻底改变了这一局面 [1] - 更新旨在满足不同场景下的创作需求 并适应视频创作领域团队协作日益普遍的趋势 [2]
从电影节到模型迭代 可灵加速冲刺
北京日报客户端· 2025-09-28 08:55
模型迭代与技术升级 - 公司推出视频生成可灵2.5 Turbo模型,更新文生视频和图生视频功能,带来综合性能显著提升 [1] - 新模型在文本响应、动态效果、风格保持、美学效果等维度均有大幅提升,综合生成效果跻身行业前列 [5] - 新模型文本理解能力跃升,能更深入理解包含多个步骤且具有因果关系的复杂指令,使用户可通过提示词细腻操控视频故事脉络、角色情绪互动及场景流转变化 [5][6] - 动态效果和艺术风格提升增强了视频生成的可控性、稳定性、一致性,为专业创意场景应用奠定基础 [6] - 在高品质模式(1080p)下,生成5秒视频的成本相比2.1模型同档位降低近30% [6] 市场拓展与用户增长 - 公司亮相第30届釜山国际电影节并参加2025年亚洲内容与电影市场大会,将中国AI视频生成成果带向亚洲影视工业中心舞台 [1][8] - 自上线以来,可灵AI已在全球149个国家和地区吸引超4500万用户 [7] - 技术和成本壁垒打破后,公司旨在通过市场普及和生态构建,将技术优势转化为生态优势 [7] 产业应用与赋能场景 - 人工智能正深刻改变影视及内容生产流程,形成“AI+创作者”的协作模式,应用于前期分镜、概念设计到后期特效与多语言口型处理 [8] - 公司扮演影视工业“加速器”角色,利用图生视频功能将静态概念图、手稿迅速转化为预演片段,提升前期沟通效率和创意可视化精度,降低决策成本 [8] - 除专业生产者外,普通用户借助“老照片动起来”等功能进行情感表达,创造出珍贵瞬间,帮助普通人跨越设备、技能和团队协作等传统壁垒 [9] - 技术未来将更深融入内容创作,为整个数字创意产业带来深刻转变 [11] 底层技术研发与布局 - 技术突破得益于团队在底层技术上持续深耕与多模态生成方向的系统化布局 [6] - 团队近期推出多模态指令控制与理解的数字人视频生成解决方案,以及实时多模态交互控制的数字人生成框架,在“表达深度”与“响应速度”上实现重要突破 [6] - 自2024年6月发布以来,公司已完成30余次迭代 [5]
可灵AI开启全新首尾帧功能内测
新浪科技· 2025-08-15 13:49
产品功能升级 - 可灵2.1模型开启全新首尾帧功能内测 通过自定义首尾帧图像生成连贯高质量视频内容 [1] - 升级带来显著效果提升 包括电影级运镜控制 丝滑自然转场效果 精准复杂语义理解 [1] - 功能有效克服AI视频生成中转场生硬 文本响应不足等痛点问题 [1] 技术能力提升 - 全新首尾帧功能提升视频一致性和稳定性 [1] - 特别适用于产品宣传片 AI电影 AI短剧等专业创作场景 [1]
Midjourney入局视频生成,图像模型V7不断更新,视觉卷王实锤了
量子位· 2025-06-16 18:30
Midjourney视频生成模型 - 视频生成效果展示包括跑步动作、人物和空间转换非常丝滑[2] - 挖蛋糕场景逼真,勺子上有倒影等细节[3] - 多人物动作和视角切换流畅[14] - 小猫动作和人手动作具有物理真实感[16] - 小狗滑滑板场景展示[18] - 小猫美甲精细,手部纹路和指纹细节突出[21] - 叠毯子场景中手部发力和褶皱表现真实,但毯子自动缩回存在不合理性[24] - 爬楼梯场景中花朵从右手飘到左手存在逻辑问题[27] - 视频生成模型在物理真实感、纹路细节、动作平滑度上表现优秀[26] - 缺乏音频功能,与Veo 3相比无法生成乐器声音[28][29][30] Midjourney图像模型V7更新 - 图像模型V7不断更新,支持语音生图功能[37] - 从3月开始呼吁用户参与图像评分以完善V7[38] - 4月发布V7 alpha版本,包含Relax和Turbo模式[39][40] - 手部纹理生成逼真[41] - 旗舰功能"草稿模式"可将提示栏改为对话模式,支持语音输入生成图像[44][45][47] - 草稿模式生成成本减半,渲染速度提升10倍[49] - 快速模式优化耗时从40秒降至18秒[50] - 图像生成速度整体提升40%,快速模式渲染时间从36秒减至22秒,Turbo模式从13秒减至9秒[51][52][53] 公司动态与市场反应 - 视频生成演示引发Reddit热议,点赞量达2.5k[5][6] - 用户评价视频效果"与现实无法区分"[9] - 公司会议展示视频生成功能,强调"动画化图片"作为差异化优势[33] - 动画风格是Midjourney的强项[34] - 定价策略考虑用户需求,展现诚意[35][36]
用Veo 3+Suno做了个AI Rapper,吊打音乐节上的流量明星
机器之心· 2025-05-29 19:38
AI视频生成技术 - Google Flow Veo3和Suno 4 5合作生成的嘻哈歌手rap视频效果逼真 网友难以分辨真实性[1] - Veo3生成的演唱会视频细节丰富 包括乐队成员动作 乐器演奏同步性 镜头切换等 几乎无瑕疵[4][6] - 典型案例包括另类摇滚乐队酒吧演出 怪诞钢琴家与交响乐团合作 混乱摇滚音乐会等场景[5][7][8] AI音乐生成技术 - Suno 4 5被称为"音乐界ChatGPT" 支持歌词输入和风格选择 但免费版Suno 3 5存在咬字不清 电音明显等问题[12][13] - 豆包音乐生成功能支持模板化创作 咬字清晰度优于Suno 尤其擅长处理生僻字发音 但旋律多样性不足[16] - 案例显示AI可将《木兰辞》等古诗改编为嘻哈风格 播放量超百万[10][19] 多模态AI创作流程 - Flow平台提供从文本提示到视频生成的完整工具链 包括摄像机控制 场景构建等功能[20][22] - 高质量视频需精细设计提示词 例如指定服装 舞台动作 观众反应等要素 并通过分段生成实现时长扩展[22][25] - 最终作品需结合Suno/豆包生成的音乐与Flow生成的视频 通过剪辑软件合成完整内容[27]
实测惊艳全球的Veo3!音画同步无敌,贵是有原因的
机器之心· 2025-05-26 17:40
谷歌Veo3视频生成技术 核心功能 - 首次实现视频与音频同步生成,支持文本/图像转视频,口型与对白精准匹配[5][6] - 生成内容涵盖复杂场景如战场士兵、脱口秀表演、假新闻播报等,细节处理达到影视级水准[12][24][26] - 提供多语言提示词支持,实测显示英文提示词效果优于中文[49] 技术突破 - 音画同步能力突出,角色表情、肢体动作与环境音效高度逼真,如ASMR视频仅需单句提示词即可生成[13][30] - 支持多场景应用:游戏直播界面含动态画面与实时聊天框(Twitch风格)、音乐录制棚特写等[26][27] - 生成限制:避免暴力、名人恶搞等内容,遵循谷歌AI政策指南[22] 应用案例 - 成功复刻《肖申克的救赎》经典雨中场景,虽未达原片质量但完整呈现剧情[47][48] - 生成哲学主题视频,探讨AI角色自我认知问题,展现深度内容创作潜力[14] - 商业场景适用性:车展视频与产品演示达到以假乱真水平[13] 现存局限 - 复杂动态场景处理不足:体操运动员动作出现肢体扭曲、篮球比赛逻辑错误[33][41] - 多对象交互生成缺陷:美人鱼与海洋生物互动画面出现拼贴感[40] - 实时元素缺失:游戏直播中观众聊天框静态化[28] 行业影响 - 技术对标好莱坞制作水平,可能重塑影视行业内容生产流程[2][7] - 用户可通过Google One会员免费体验,降低专业视频创作门槛[15][19] - 提示词优化体系已标准化,提供场景描述、视觉细节等结构化生成框架[44]