Workflow
AI视频模型
icon
搜索文档
拆解2026春节档:影片多了 票价更亲民了 男性观众多了
新京报· 2026-02-26 20:36
2026年春节档市场表现 - 2026年春节档总票房为57.52亿元,与2018年的57.43亿/57.71亿水平接近,远低于2025年95.1亿的峰值 [1][2] - 档期内电影场次达435.1万,创下历史纪录,但平均票价为47.8元,创下2021年以来的最低价 [1][6] - 档期共上映7部影片,数量创近五年新高,但缺乏能够引发全民讨论的现象级作品,市场热度或难形成共振效应 [8][9] 头部影片竞争格局 - 《飞驰人生3》以约29.3亿票房断层领先,成为春节档冠军,其票房表现从大年初一(单日6.41亿)就已强势确立 [2][3] - 《惊蛰无声》和《镖人:风起大漠》分别以8.67亿和8.06亿票房位居第二、三位,《镖人》在初二后单日票房实现逆势上升并超越《惊蛰无声》 [2][3] - 《飞驰人生3》和《镖人》均为成熟IP续作或改编,在激烈档期竞争中凭借深厚的受众基本盘与确定性情绪价值展现出竞争优势和抗风险能力 [3][4] 观众结构与消费行为变化 - 今年春节档女性观众占比为59.1%,为近五年来首次下降,也是自2023年以来首度回落至60%以下,男性观众占比相应提升至40.9% [4] - 《飞驰人生3》和《镖人》等“大男主”戏带动购票用户画像整体首次偏向年长男性,显示出男性观众的电影消费能力 [4] - 多地推出电影消费券等惠民补贴政策,例如北京投入近3000万元,云南准备800万元,江苏省总工会及各级工会共投入345万元,这些措施是平均票价降至47.8元的重要原因之一 [1][5] 影片出品与发行方 - 头部影片背后涉及多家上市公司,例如《飞驰人生3》出品方涉及猫眼娱乐、大麦娱乐、万达电影、博纳影业、横店影视,发行方涉及猫眼娱乐、大麦娱乐、中国电影、万达电影 [9] - 《熊出没·年年有熊》出品方涉及华强方特、横店影视、中国电影、猫眼娱乐、万达电影等 [9] - 《镖人》出品方涉及大麦娱乐、中国电影,发行方主要为大麦娱乐;其他影片如《惊蛰无声》《星河入梦》等也涉及光线传媒、上海电影等多家上市公司 [9] 行业趋势与展望 - 国内电影工业化制作水平在春节档得以延续,通过高速运动场面、视觉奇观等为类型片提供了更多确定性 [4] - 大档期带动效应失灵可能推动影片出品方更注重精细打磨影片质量,并加速向IP开发、衍生品、线下实景娱乐等多元化渠道转型,优化盈利结构 [10] - 行业在技术端有望利用AI视频模型等技术优化制作流程,以降低制作成本并提高效率 [10]
中原证券:春节档表现低迷票房低预期 关注优质内容建设、IP 孵化等全产业链公司
智通财经网· 2026-02-26 11:54
核心观点 - 2026年春节档整体表现弱于市场预期,票房、人次、票价均同比下滑,行业面临结构性挑战[1] - 档期表现不佳或将推动行业向内容IP全产业链运营转型,并利用AI等技术优化制作流程与成本[1] - 建议关注在全产业链变现能力方面有优势的影视内容公司,以及运营效率高、非票收入占比高的头部院线公司[1] 票房与市场表现 - 2026年春节档(2月17日-2月23日)总票房56.97亿元,同比减少40.09%[1] - 档期观影人次1.19亿,同比减少36.36%[1] - 档期平均票价47.87元,同比减少5.86%[1] - 多项数据处于2018年以来同档期较低位置,表现明显弱于市场预期[1] 放映与上座情况 - 2026年春节假期累计放映电影388.0万场,同比增加15.24%,日均放映55.43万场,达历年最高水平[2] - 测算档期场均人次30.67人,同比减少44.78%[2] - 影院上座率从2025年的43.3%显著下降至22.2%[2] 影片竞争格局 - 《飞驰人生3》档期内总票房近29.27亿元,票房占比50.8%,明显高于其31.6%的排片占比,上座率28.1%也高于同档期其他影片[3] - 《惊蛰无声》档期内票房8.67亿元,票房占比15%[3] - 《镖人:风起大漠》和《熊出没·年年有熊》票房分别为8.06亿元和7.13亿元,票房占比分别为15.2%和11.8%[3] - 票房分布出现明显断层,仅有《飞驰人生3》票房接近30亿元,10亿元-30亿元区间成为空白地带[3] 市场表现不佳的原因 - 2025年春节档存在高基数压力[1] - 2026年春节假期较长,出游需求增加,对观影需求造成分流或延后[1] - 影片内容题材与档期需求存在偏差[1] - 其他娱乐方式对电影领域形成分流[1] 行业发展趋势与建议关注方向 - 大档期带动效应失灵或将推动影片出品方精细打磨影片质量以拉动需求[1] - 产业端或加速向IP开发、衍生品、线下实景娱乐等多元化渠道转型,优化盈利结构[1] - 行业增长驱动或由内容票房驱动转为由内容IP全产业链运营驱动[1] - 技术端可利用AI视频模型等技术优化影视内容制作流程,降低制作成本、提高制作效率[1]
AI视频模型王者来了 国产碾压全球
新浪财经· 2026-02-10 08:57
文章核心观点 - 提供的文档内容仅为重复的免责声明和来源信息,未包含任何实质性的新闻、事件、财报或分析内容 [1][1]
57.1%的人分不清真假!Runway新视频模型太爆炸
量子位· 2026-01-22 13:39
Runway Gen 4.5模型的核心能力 - 全新Gen 4.5模型主打图生视频,在镜头控制和故事叙事能力上显著提升[8][9] - 模型能在5秒内快速生成包含近景、中景、远景三个镜头的视频[11] - 在1000人参与的调查中,只有约一半(57%)的人能分辨出该模型生成的视频与真实视频的区别[11][21] 模型在镜头控制与一致性方面的表现 - 即便镜头晃动,人物面部仍保持较高一致性[12] - 在快速运动场景下,如骑飞行章鱼,人物面部细节稳定不崩坏[13] - 复杂场景中,如巨型毛绒猩猩在纽约街头,镜头比例、透视逻辑及主体与背景的光影一致性处理得当[15] - 模型具备精准的镜头控制能力,包括景别、角度、运动轨迹及切换节奏,输出效果接近真实摄影语言[16] - 通过图像参考和内部优化,模型实现了更稳定的角色一致性,主体在不同镜头中的跨帧效果更佳[16] 模型在长故事叙事与连贯性方面的进步 - 模型长故事表达能力增强,能承载更长时序的内容结构,视频完整度和长度大幅提升[16] - 多个镜头之间的情节逻辑性更强,叙事表达比上一版本更到位[16] - 在长达两分多钟的剧情视频中,即便在同一场景多次切换镜头位置和动作,画面空间关系和镜头衔接依然保持连贯,无明显跳轴或场景漂移问题[18] - 用户制作的视频展示了出色的镜头漂移感,能流畅切换特写与远景镜头[18] 视频生成行业的整体发展趋势 - 从去年年底至今,视频模型能力进入新一轮升级期,各厂商发布节奏密集[23][35] - 行业整体趋势对视频模型的真实度和一致性要求被整体抬高,包括纹理与细节保真、光影与氛围、整体画面质感等[25][26] - 模型越来越注重理解并遵守现实世界的物理规律,在跨帧表现上要求更自然[27] - 声画同步能力显著提升,模型可直接生成配套音频,唇形同步精度提高,即使在侧脸、极端角度或多人对话场景也不易崩坏[28][30] - 局部控制精细化成为重要趋势,支持单独编辑局部区域而无需重新生成整段视频[28] - 支持更长的生成时长,10至60秒的视频生成区间变得常见,竖屏原生视频逐步占据主流[28] - 视频生成方式更加多元,从图生视频到音频生视频,创作路径更加灵活[28] - 主流视频模型的能力已明显接近可商业化应用、具备普适性的水平[34]
【光大研究每日速递】20260113
光大证券研究· 2026-01-13 07:03
石油化工行业 - 核心观点:地缘政治局势升级驱动油价回升,中长期原油供需格局具备景气基础,坚定看好“三桶油”及油服板块 [5] - 油价表现:截至2026年1月9日,布伦特、WTI原油期货价格分别报收63.02、58.78美元/桶,较上周收盘分别上涨3.7%、2.5% [5] - 驱动因素:委内瑞拉、伊朗地缘局势紧张程度加剧,原油的地缘政治风险溢价上升 [5] 公用事业行业 - 板块表现:本周SW公用事业一级板块上涨2.54%,在31个SW一级板块中排名第23 [5] - 细分板块涨跌:火电上涨2.4%,水电上涨0.7%,光伏发电上涨3.9%,风力发电上涨2.6%,电能综合服务上涨2.51%,燃气上涨4.8% [5] - 市场背景:同期沪深300上涨2.79%,上证综指上涨3.82%,深证成指上涨4.4%,创业板指上涨3.89% [5] 互联网传媒行业 - 核心观点:随着AI视频模型成熟应用,漫剧正接棒真人短剧成为平台内容增量主力军,海量IP价值待释放 [6] - 市场趋势:漫剧凭借低成本、高产能和强视觉冲击力获得发展 [6] - 市场规模:漫剧行业在2025年已呈现强势增长态势,预计2026年市场规模将维持高速增长 [6] 有色金属行业(铜) - 核心观点:展望2026年,铜供需依然偏紧,继续看好铜价上行 [7] - 市场现状:TC现货创新低,显示铜精矿现货采购依然紧张;线缆企业周度开工率继续下降,国内社会库存继续增长 [7] - 价格影响:铜价大涨对需求有压制 [7] 宏观与市场 - 美联储政策:市场对美联储2026年1月不降息已经基本定价 [7]
太猛了!终于有人来管管 AI 视频的语音和表演了:GAGA AI 实测
歸藏的AI工具箱· 2025-10-10 18:03
模型核心能力 - 专注于人物对话表演,在人物细微表演对话方面表现最强,表演能力甚至超过Sora2 [1] - 模型具备泛化智能,能自主推导并生成未在提示词中明确指定的细微表情和动作,如叹气、点头、挑眉等 [2][5] - 支持声音和画面同步生成,即使侧面视角下唇形同步也非常到位,语音音效俱全 [4] - 在复杂情绪表现上极为出色,能精准演绎羞耻、自责、绝望、恳求等细微情绪变化及语音配合 [9][10] 技术规格与性能 - 支持图生视频,单次生成最长10秒,分辨率为720P但细节丰富 [4] - 支持双人场景演绎,能很好理解提示词中不同人物的语音和互动,但超过双人表现会下降 [4][11][16] - 支持多语言输出,包括英语、日语、西班牙语,并可实现多语言混合输出,各语言表现标准如母语者 [6][7][8] - 目前仅支持16:9横屏比例,后续将支持9:16竖屏比例 [16] 应用场景与提示词使用 - 提示词编写可先描述情绪变化,再说明语气和内容,停顿可用波折号或省略号表达 [16] - 在复杂场景(如雨天、车内隔窗对话)中能自动添加环境音(雨声)和应景背景音乐(钢琴BGM),增强氛围渲染 [10] - 需避免复杂精细的手部运动提示词,手部动作可能存在瑕疵;图生时也应避免过多肢体或全身露出 [6][16] - 对于短对话(如十字以内)可选择5秒生成时长,长对话可选择10秒 [16] 行业发展趋势 - AI视频模型发展进入新阶段,重点从复杂动态、物理表现转向情绪表达、表演以及音效语音的端到端多模态一体化输出 [16] - 模型开始内化世界知识和智能,具备视觉推理、分镜脚本编排和剪辑能力,这部分能力原被认为需由Agent完成 [16][17]
Sora2之后,又来了个全新的影视级AI视频模型,它的名字,叫GAGA。
数字生命卡兹克· 2025-10-10 09:33
文章核心观点 - 公司推出的AI视频模型GAGA-1在人物表演领域表现出色,尤其在台词同步和情感表达上达到较高水准,为短剧、互动影游等内容创作提供了新的低成本工具 [3][19][20][59][60] - 该模型目前处于免费使用阶段,其定价策略预计将远低于Sora2和Veo3等竞争对手,具备市场普及潜力 [12][55][57] - 作为国产模型,GAGA-1的上线标志着AI视频领域的技术进步,尽管在复杂动作、多语言支持及工作流集成方面仍有优化空间 [52][53][61] 产品功能与性能 - 模型核心功能为“Gaga Actor”,专注于生成带台词的人物表演视频,支持5秒和10秒两种固定时长,建议台词字数不超过20个 [16][17][18][21] - 生成视频需结合输入图片和文本提示词,一次生成耗时约3至4分钟,支持最多5条并发生成 [22][28] - 在人物神情、头发细节、牙齿等细微之处表现优异,表演真实度被评价为接近影视级别,尤其在短剧和影游级应用上效果良好 [20][21][30] 技术优势与特点 - 模型能够准确识别并表现复杂的表演动作和情绪,如叹气、咬嘴唇、哭泣、歇斯底里等,并能展现不同的表演层次 [32][34][35][39] - 支持图片中多人物互动,能分别处理不同角色的神态和语音表现 [46] - 具备一定的唱歌功能,尽管音调表现尚不完善 [48][50] - 能够识别角色国籍并调整语言表现,例如识别外国角色并使用蹩脚普通话 [44] 当前局限性 - 对大幅度、复杂运动支持不佳,例如手部动作容易出现变形 [52] - 台词生成能力相较于表演层次稍弱,念白较为平淡,且长提示词可能导致吞字现象 [35][36][42] - 多语言支持不均衡,日文表现诡异,其他语言支持程度不明 [53] - 缺乏音色ID固定和自定义音频上传功能,导致每次生成的音色不一致,影响工作流集成 [53] 市场定位与定价策略 - 产品目前完全免费开放使用,无需邀请码或排队,旨在吸引用户体验和积累用户 [12][55] - 公司明确表示未来定价将远低于Sora2和Veo3,但具体收费时间和方案尚未确定 [56][57] - 模型定位为降低视频创作门槛,目标应用场景包括短剧、互动影游NPC对话、小说角色可视化等 [59]
告别抽卡!全能&高度可控|藏师傅教你用即梦数字人 1.5
歸藏的AI工具箱· 2025-09-29 18:10
产品核心升级 - 数字人Omnihuman 1.5版本在Web端上线,相较于1.0版本,其控制能力大幅提升,用户可定义视频中人物的表演和运动方式,解决了以往AI视频在人物表现方面的难点 [1] - 新增动作描述提示词输入功能,极大拓展数字人的使用场景,可控制画面内容、人物、情绪、音色以及运动和运镜方式,使其成为自定义程度极高的工具 [2] - 模型升级使数字人不再死板,可通过动作控制让镜头和人物动起来,包括主角和背景人物,实现如先抬头调整角度再开始说话,同时镜头旋转、背景人物行走等复杂动作,这是纯唇形同步模型无法做到的 [4] 技术能力突破 - 模型在多风格化及非人形生物的唇形同步上效果自然,平面插画的眼睛、嘴部和面部运动生动,并可搭配抬手、走动等动作,镜头平移时新画面风格与原有部分保持一致 [5] - 对表情和表演的响应显著提升,能够精准遵循复杂提示词,如从平静到讽刺再到温和的16秒长视频中,稳定保持人像ID不变并实现精准的提示词遵循,这在市场上较为罕见 [6] - 新增控制同一场景多人对话和表现的功能,可指定发声角色,实现两人对唱、多人对话剧情,搭配图像编辑能力调整镜头重点,超越固定镜头的表现限制 [7] - 解决了以往模型夸张嘴型问题,模型会根据声音内容和提示词调整嘴部动作,表现自然度大幅提升 [8] 操作流程与教程 - 制作视频需准备三部分内容:首帧图片、音频、对应的动作和情绪提示词,建议使用表格规划每个分镜的这三个部分,通过切分镜头和音频使画面更生动,避免超长镜头的生成时间和ID保持问题 [9][29] - 音频处理支持选择推荐音色或克隆自定义音色(仅需5秒音频),上传音频后角色说话内容将基于音频,多角色画面中可选择单个或全部角色发声 [12][14] - 动作描述提示词模板建议包含镜头运动、说话角色情绪、说话状态、具体动作及可选背景事件或其他角色动作,强调清晰、不矛盾、少否定、多具体内容 [16] - 利用图像模型生成和编辑分镜图片,如生成黑色背景的乔布斯图片、苹果风格PPT的拖鞋产品图,并通过图像编辑能力修改背景和添加元素,实现多镜头连贯视频 [19][21][23][25][27] 行业影响与定位 - Omnihuman 1.5将创作从“玄学”变为“工程学”,首帧画面相当于场景设定、音频内容相当于台词剧本、动作提示相当于分镜脚本、多角色控制相当于群戏调度,为具备导演思维的用户提供更精准的工具 [30] - 新模型将于9月30日同步上线手机端,用户更新即梦app即可体验,标志着AI视频工具在移动端的进一步普及 [30]
可灵2.5Turbo实测|顶尖AI视频模型,真能打平CG吗?
歸藏的AI工具箱· 2025-09-23 18:37
可灵2.5 Turbo模型性能提升 - 模型提示词理解能力显著增强,尤其擅长处理包含复杂因果和时间关系的指令 [1] - 在超高速战斗和复杂运镜场景下,视频生成稳定性更高 [1] - 图生视频功能风格保持相当稳定,生成视频的风格一致性更强 [1] - 高品质模式5秒视频生成价格从35积分降至25积分,降价幅度约29% [1] 复杂动作与时序理解能力 - 模型能够准确执行复杂提示词序列,如规定运镜方式后连续完成伸手攻击、怪物扑咬等动作 [2][3] - 在执行复杂动作如人物转身时,主体角色完全避免变形或溶解等问题 [3] - 能够根据首帧图片不清晰的怪物形象,脑补并生成后续画面中清晰完整的怪物形象 [3] - 处理服装平滑变换等复杂时序提示词时过渡顺滑,服装变化采用生长动画和蒙版等自然方式 [6][7] 与世界顶级CG渲染作品对比 - 在还原世界渲染大赛Top 5作品时,模型能把握照明弹触发场景变亮的核心亮点,并丰富水晶生长等细节 [10][11] - 对于固定机位的复杂战斗场景,模型能准确分析画面视觉元素,使所有应该运动的物体都在运动,并模仿原始CG运镜 [11][12] - 在人物奔跑、躲避攻击等动作表现上相当自然流畅,甚至能主动添加提示词未要求的"踉跄"步伐以符合物理逻辑 [13][17] - 变狼形生物的动作处理几乎与CG同步,人物和狼的运动及动作切换无误,背景元素运动自然 [14][17] - 在处理龙骑士航拍镜头时,尽管首帧龙身不全导致龙形态变化,但在镜头调度和运动表现上甚至优于原CG [15][17] - 追车场景还原度最高,汽车落地后模型自动添加甩尾漂移动作,镜头跟随表现突出 [16][17] AI视频模型的技术突破意义 - 模型开始理解动作背后的"为什么",表现出对真实物理世界的底层理解,如对"失衡-恢复"逻辑的自发补全 [17] - 内化了"材质-运动"的关联规则,如公主长裙的变化遵循布料重力下垂的渐进式展开而非粗暴形变 [17] - 在形变瞬间的镜头模糊和肌肉膨胀帧率完全同步,显示对"形变需要信息补偿"的隐性认知 [18] - AI模型的思考和创作方式更接近人类,在CG解微分方程时,AI已学会"凭感觉"进行创作 [18]
实测可灵AI的新视频模型,它生成的动作戏酷到封神。
数字生命卡兹克· 2025-09-22 09:33
产品能力提升 - 可灵2.5在动作和表演方面实现显著进化 包括运动的超进化和表演的超进化 [1] - 运动能力实现超进化 能够丝滑衔接多个动作 如下落、奔跑、骑摩托等 并注重真实感细节 如玻璃渣散落和落地缓冲 [2] - 表演能力实现超进化 能够准确表达多层次情绪 如从愤怒到克制的转变 以及淡淡的阴恻恻的笑 [29][35] - 文生视频能力大幅提升 仅靠提示词即可生成至少一半的案例 无需首尾帧 [10][55] - 理解能力有巨幅提升 解决以往因果关系和细节不到位的问题 [56] 技术对比 - 可灵2.5相比2.1在运动能力上有巨大进步 2.1会出现绳子消失、摩托车凭空出现、动作错误等问题 [3] - 可灵2.5在人物动作和运镜方面更稳 而2.1只能保持人物基本不崩坏 环境交互细节全部糊掉 [5][6] - 可灵2.5的机器人跑酷动作和交互相当真实 而2.1会不受重力控制逐渐飞天 [10][12] - 可灵2.5能够自然完成情绪转变 而2.1表演没层次 表情做得太过或太粗糙 [32][33][37][42] 应用场景 - 可灵2.5能够生成各种运动镜头 如滑雪空翻、摸雪、呲雪墙、滑板速降、篮球赛等 [16][18][20] - 可灵2.5能够满足各种奇幻脑洞 如和小鹿一起闯进魔法森林、在废土世界开装甲车、在陌生星球开飞行器等 [22][24][26][27] - 可灵2.5能够处理多种专业场景 如好莱坞老电影风格的斗嘴、爆炸映亮脸部、重伤喘息、古灵精怪的表情变化等 [45][47][49][50] - 可灵2.5能够生成第一视角跟随镜头 并做出急迫感 如猛然加速追逐 [14]