Workflow
AI视频生成
icon
搜索文档
AI视频生成,如何撕开创作边界?
36氪· 2025-12-18 17:26
AI视频生成技术成为行业焦点 - 2025年下半年AI视频生成成为全球AI行业最受关注的方向之一,热度以“病毒式”速率扩散[5] - 技术进步是核心驱动力,过去两年视频生成技术在画面质量、时序建模与可用性上持续进步,全球AI视频能力迭代节奏显著加快[5] - 当生成效果跨过“能看”门槛,开始接近“可用”、“好用”时,AI视频真正进入大众视野并成为极具想象空间的赛道[6] 视频行业面临结构性生产难题 - 视频是全球增长最快、资本最密集、创新最活跃的领域之一,已成为信息、娱乐与商业的核心表达形态[7] - 行业竞争加剧将内容生产推向极限,短剧、电商与广告进入“更快、更细、更大量”阶段,内容更新周期被压缩到小时级甚至分钟级[7] - 传统制作链路依赖的人力规模与制作周期,与新的内容生产节奏形成明显错位,压力在不同领域显现[7] AI视频正在重塑内容产业生态 - 创作门槛被显著拉低,个人创作者与小团队开始具备接近工业化的视频生产能力[9] - 围绕视频生成的新中间层正在出现,包括创作工具、工作流平台及面向广告、电商、短剧的垂直解决方案[9] - 视频生产从一次性创作转向可规模化运行的系统工程,内容成为可反复生成、快速验证、持续优化的过程性资产[10] - 国内外涌现大量AI视频产业链创业公司,技术突破与国内规模化需求汇合,AI视频生成被视为下一代内容基础设施的重要组成部分[10] 不同公司的技术路径与战略侧重 - OpenAI的Sora策略偏向通用能力展示,通过高质量视频生成推动AI视频进入大众文化与社交传播场景[12] - Google的Veo强调模型在长时序理解与复杂场景中的表达能力,体现为技术能力的前沿探索[12] - 国内公司更多从平台生态出发,将视频生成能力与内容分发、创作者体系结合,或赋能视频生产全流程以提升效率[12] - 市场存在C端(娱乐表达)与B端(商业生产)需求的分野,B端场景要求镜头、人物与风格长期保持一致,内容可控、可复用,并能稳定高频输出[13] - 阿里选择将AI视频生成做成行业级基础设施,其通义万相2.6模型试图回应行业从能生成走向可生产、从尝鲜迈向规模化落地的趋势[13] 通义万相2.6的核心技术能力突破 - 将多镜头叙事能力提升为模型核心能力,强调在生成过程中对时间轴与镜头语言的整体建模,支持自然语言分镜指令[15] - 将参考对象从图片升级为视频,支持输入约5秒参考视频,复刻主体外观、动作模式、表情变化与音色特征,实现声画一致生成[18] - 将可控生成时长稳定在约15秒,并支持1080P输出与声画同步,满足广告、电商、短剧等商业场景对“刚好可用”内容长度的需求[21] - 文生图能力同步升级,引入对叙事结构的理解,支持图文混排输入,从简单提示中自动拆解故事并生成分镜画面[21] - 在中文语境与中式美学上持续投入,使模型在人物气质、风格表达与文化细节上更贴近本土创作需求[23] AI视频带来的生产效率革命 - AI视频生成介入创作前端,将编剧、导演、剪辑、美工等跨岗位协作工作压缩进同一界面,显著降低岗位交接成本[27] - 内容生产从线性流程转向以模型为核心的并行与即时生成,效率提升最先影响短剧、漫剧、电商内容、出海创作工具等对成本和周期高度敏感的场景[29] - 在广告和电商领域,AI将创意验证环节前置,显著压缩从想法到可视化内容的距离,用于内部讨论、客户提案或A/B测试[31] - 稳定、可规模化的视频生成能力催生新的工具平台、创作社区与内容服务,形成不断自我扩展的AI创作生态[31] 行业实践案例展示生产力提升 - AI漫剧与短剧工具平台巨日禄通过调用通义万相模型,将图片与视频生成能力嵌入创作工具链,大幅降低使用门槛[32] - 通义万相2.6在主体一致性、指令遵循等方面的稳定性,使巨日禄可以全天候、规模化使用,其智能体效率提升5-8倍[32] - 出海社交与内容公司乐我无限利用万相的多模态生成能力,支持海外创作者快速生成高质量AI视频,提升社区内容密度与创作质量,并助力冷启动[32] - 稳定型AI视频基础设施正在显著降低小团队乃至个体创作者的创作门槛,使有限人力条件下仍能维持稳定叙事质量并持续输出体系化内容[33] 从“好玩”到“好用”的关键在于稳定与集成 - 企业和创作者关心的核心是生成结果是否可控、稳定,能否减少反复抽卡和人工返工成本,稳定性是进入生产流程的前提[36] - 通义万相依托阿里云大模型服务与应用开发平台百炼,可被嵌入企业既有内容生产与业务流程,并非孤立工具[37] - 阿里云作为全球领先的全栈人工智能服务商,在算力供给、数据治理、模型服务及大规模并发调度等方面的工程能力,保障了视频生成模型在真实生产环境中的稳定持续运行[37] - 阿里对人工智能的系统性投入可追溯至十多年前,长期技术积累使其能够构建从模型训练、部署到服务化调用的完整链路[39] AI视频生成降低门槛并重新定义创作 - 当镜头语言、叙事节奏、美术风格等专业能力被编码进模型,创作者所需掌握的技能正从具体技法转向判断、创意与取舍本身[39] - 这种变化类似于从专业级影像软件走向大众化创作工具的历史拐点,AI视频生成正在把一整套专业制作能力压缩为可被普通人调用的基础设施[40] - 在降低门槛的同时,创作本身将具备更大的规模与更长的生命力[41] - 视频生成的终点并非替代创作者,而是让创作者将精力更多投入到真正有价值的部分——创意、叙事与判断本身[42]
不儿,这谁还能看出是AI演的视频啊
量子位· 2025-12-18 17:26
产品发布与核心功能 - 火山引擎在FORCE原动力大会上推出了最新的豆包视频生成模型Seedance 1.5 Pro [5] - 该模型主打音画高精同步和一镜入戏,能够通过单一Prompt同时生成人物对白配音、背景音乐和音效 [4][6] - 模型已上线即梦AI、豆包APP和火山方舟体验中心,企业用户自12月23日起可在火山引擎使用该模型API [11][12] 技术亮点与性能 - 采用原生音视频联合生成架构,基于MMDiT建立双分支DiT架构,实现视觉流与听觉流在潜在空间的实时通信,从底层解决音画同步问题 [40][41][42] - 通过高质量音视频数据框架,筛选了数以亿计的高清视频并进行自动化标注,为模型注入丰富的视觉描述和匹配的音频语义信息 [43] - 引入针对音视频场景定制的RLHF算法进行后训练优化,从视觉美感、运动连贯性、音频保真度及音画匹配度进行全方位调优 [44] - 通过多阶段蒸馏技术和高效推理加速框架,将推理速度提升了10倍以上,实现快速生成 [47] - 在审美、运动质量以及音画对齐等核心评测指标上处于行业领先地位,在多语言对白和方言口型匹配任务中表现显著优于主流模型 [52][53] 实测效果与应用场景 - 模型能够精准理解Prompt,实现音画精准同步,生成具有电影级气场和叙事张力的视频片段 [18] - 能够复刻复杂的专业运镜,例如成功复刻了周润发在MAMA颁奖典礼中的百万级运镜效果 [22][25] - 原生支持多人对话及多种方言,如四川话、粤语、上海话、台湾腔等,并能精准捕捉方言独特的韵律和情感张力 [11][27][28] - 总体体验方便快捷,对于非复杂场景基本可以“一条过”,具备低成本制作短剧、广告片及辅助影视创作的实战能力 [30][59] 未来功能与效率提升 - 即将推出Draft样片功能,允许用户先生成低分辨率草稿视频以快速试效果和调方向,并能锁定关键元素确保与最终成片内容一致 [32][33] - 据官方数据,Draft样片功能预计能将整体创作效率提升约65%,同时减少60%无效创作成本 [35]
硬刚Sora2,万相2.6轻松定制角色、控制分镜,普通人也能当导演
机器之心· 2025-12-17 13:28
行业年度回顾与趋势 - 2025年视频生成领域发展突飞猛进,视频内容创作范式正在发生改变 [1] - 行业在B端和C端商业化落地速度惊人:B端大量AI短剧、漫剧上线,制作成本大幅降低;C端社交平台出现爆款特效,大量博主开始常态化使用AI制作剧情短片 [1] - 顶尖模型生成的画面在光影质感与物理规律上已臻化境,但用户体验门槛依然存在,如高不可攀的内测资格或不菲的订阅费用 [1] 公司产品发布与定位 - 阿里于12月16日正式发布新一代万相2.6系列模型,涵盖文生视频、图生视频、参考生视频、图像生成和文生图共5款模型,是目前全球功能覆盖最全面的视频生成模型家族之一 [2][3] - 万相2.6是**国内首个**具备声画一致性角色定制能力的模型,能通过角色参考固定IP形象,并参考输入视频中的音色,实现从画面到声音的完美复刻 [3] - 该版本进一步提升了画质、音效和指令遵循能力,单次视频生成时长实现了**国内最高的15秒**(参考生视频为10秒) [3] - 模型已同步上线阿里云百炼和万相官网,企业用户可直接调用API,千问APP也将于近期上线 [3] 核心技术能力突破 - 万相2.6具备“参考生视频”能力,成为**全球唯二、国内首个**拥有此能力的模型,允许将任意人或物设定为主角,在多镜头切换中保持核心主体、场景和环境氛围的统一 [7] - 模型在结构上集成了多项创新技术,可对输入参考视频进行多模态联合建模与学习,提取主体的时序情绪、姿态、视觉特征及音色、语速等声学特征,实现从视觉到听觉的全感官一致性迁移 [9] - 模型具备“分镜控制”功能,通过高层语义理解将简单提示词转换为多分镜脚本,生成包含多个镜头的连贯叙事视频,确保内容、节奏和氛围的高一致性 [3][9] 产品功能实测与效果 - 实测中,万相2.6能精准提取参考素材中主体的形象特征、声音声线及惯用神态,并可通过提示词将其置入全新剧情 [11] - 在多角色声画同步测试中,模型对科技人物(如奥特曼、哈萨比斯、黄仁勋)的眉眼微表情、肢体语言及习惯性动作还原度极高,英文版能完美复刻其原本的声线与语调 [13][14] - 在细节把控测试中,模型能生成电影级高保真度的特写镜头,完美呈现如眼镜片因热气起雾、皮肤细微纹理和毛孔“呼吸感”等复杂细节,打破了AI生成人物常见的“塑料感” [17][18] - 在长叙事能力测试中,模型展现出了类似专业导演的运镜意识,能通过推拉摇移和景深变化掌控叙事节奏,并高度还原设定的视觉风格与人物情绪 [24] 图像生成能力升级 - 万相2.6在静态图像生成领域完成了版本迭代,在“高美学”与“强可控”上同时迈进 [26][27] - 在文生图方面,新模型实现了对艺术风格的“灵魂捕捉”,对肌理、色彩、笔触等细节刻画更为到位,并能进行平滑自然的风格融合 [27] - 针对人物写实照片,2.6版本综合优化了构图与光影,削弱了“AI塑料感”,人物神态更自然,肤质真实感大幅提升 [29] - 新版本改善了在图片中生成中英文文本的能力,并新增了“图文混排输出”和“多图融合生成”等功能,能依据逻辑创作具有叙事性的绘本或复杂商品组合场景 [31] - 模型提供了商用级的一致性保持能力,以及更精确的镜头远近视角和光影效果控制选项 [33] 应用场景与市场影响 - 万相2.6面向广告设计、短剧制作等专业场景展现出惊人潜力,通过连续提示词能生成完整叙事的短片 [16] - 万相模型家族已支持文生图、图像编辑、文生视频等10多种视觉创作能力,已广泛应用于AI漫剧、广告设计和短视频创作等领域 [35] - 万相2.6的发布标志着AI视频生成告别“抽卡”时代,迈向了精准可控的电影级创作新阶段,将昂贵的影视工业特权折叠进了手机和云端 [36]
千问App接入视频生成模型万相2.6
每日经济新闻· 2025-12-17 11:30
公司动态 - 阿里巴巴旗下千问App于12月16日同步上线最新视频生成模型万相2.6,并向所有用户免费开放 [1] - 基于万相2.6模型的核心能力,千问App上线了“AI小剧场”功能,在国内首次实现“角色合拍”玩法,用户可与朋友或名人同框出演AI短片 [1] - 截至12月17日,千问App公测满一个月,在此期间该App迅速迭代,共计更新了18个版本 [1] 行业技术 - 千问App新上线的“AI小剧场”玩法是基于其视频生成模型万相2.6的角色扮演新功能 [1] - 目前,仅美国大模型公司OpenAI旗下的Sora2大模型具备类似的功能 [1]
商汤发布Seko2.0:已能连贯创作百集短剧,适配寒武纪
南方都市报· 2025-12-17 09:01
AI视频生成行业进入商业落地新阶段 - AI视频生成行业正从技术展示阶段加速进入关注商业回报的落地期 竞争焦点从生成效果转向降低边际成本和保证长内容一致性以跑通商业闭环[2] - 商汤科技发布Seko 2.0智能体 核心能力指向“多剧集的一致性”并披露国产化算力适配进展[2] 商汤科技Seko 2.0的技术与成本突破 - 商汤日日新Seko系列模型已完成对国产AI芯片寒武纪的适配 通过模型蒸馏、算子优化及芯片适配 推理成本下降约50%[2][3] - 技术迁移面临模型调优、通信及并发等挑战 但最终视频产出质量已与英伟达生态基本一致[3] - 视频生成属于非实时任务 更适合国产芯片发挥高性价比优势 国产软硬件深度磨合带来成本优势[3] - 自今年7月上线以来 Seko平台已聚集超20万创作者 其中短剧和漫剧创作者占比达50%[2] 长内容一致性技术取得关键进展 - 制约AI视频从“玩具”变“工具”的另一大痛点是多镜头叙事中的内容一致性 如主角“换脸”、场景突变等问题[5] - Seko 2.0将重心从“单图生视频”转向“多剧集智能体” 引入SekoIDX一致性模型和SekoTalk音画同步技术及Agent智能调度系统[6] - 该技术试图解决角色在不同分镜和场景下的形象稳定问题 支持100集以内剧本的连贯创作[6] - 依托该工具孵化的真人短剧《婉心计》已登顶抖音AI短剧榜 验证了“主干用AI、细节人工补”的混合人机协作模式[6] 行业商业化影响与趋势 - 推理成本下降约50%对B端用户尤为敏感 算力成本降低决定了高频使用的短剧工作室项目能否盈利[3][4] - 商业变现的核心在于长内容 其基础是人物主体一致性、故事情绪延展和场景世界观连贯[6] - 商汤与寒武纪联手 标志着国产大模型正加速摆脱对单一进口算力的依赖 构建更具韧性的自主产业链[4] - 随着工具门槛降低 “一人剧组”正在从概念走向现实[6]
一键生成电影级短片,阿里发布万相2.6视频模型
国际金融报· 2025-12-16 14:59
公司产品发布与技术升级 - 阿里于12月16日发布新一代万相2.6系列模型,该模型面向专业影视制作和图像创作场景进行了全面升级[1] - 万相2.6是国内首个支持角色扮演功能的视频模型,同时支持音画同步、多镜头生成及声音驱动等功能,被官方称为全球功能覆盖最全面的视频生成模型之一[1] - 相比今年9月发布的万相2.5版本,新版本在画质、音效与指令遵循能力上均有显著提升,单次视频生成时长达到目前国内最高的15秒[1] - 万相2.6新增了角色扮演与分镜控制功能,使得模型能够一键生成包含单人、多人或人与物互动的视频内容,并可自动完成多镜头切换等专业影视任务[1] - 该模型已同步上线阿里云百炼平台及万相官网[1] 核心技术特点 - 技术层面,万相2.6通过对参考视频进行多模态联合建模,同步提取时序化视觉特征与声学特征,在生成过程中实现画面与声音的全感官一致性迁移[1] - 在分镜控制方面,模型能基于高层语义理解构建具备完整故事线的多镜头段落,并在镜头切换中保持主体、场景与氛围的统一[1] 应用场景与行业影响 - 该模型进一步降低了专业视频制作的门槛,用户上传一段个人视频并输入风格提示词,万相2.6即可自动完成分镜设计、角色演绎与画面配音,生成电影级短片[2] - 在广告设计、短剧制作等场景中,连续提示词可驱动模型生成叙事连贯、镜头语言专业的视频内容[2] - 目前,万相模型家族已支持文生图、图像编辑、文生视频、角色扮演等十余项视觉创作能力,广泛应用于AI漫剧、广告创意及短视频制作等领域[2]
阿里发布电影级视频模型万相2.6,人人都能当电影主角
格隆汇· 2025-12-16 14:11
公司产品发布 - 阿里于12月16日发布新一代万相2.6系列模型,该模型面向专业影视制作和图像创作场景进行全面升级 [1] - 万相2.6是国内首个支持角色扮演功能的视频生成模型,同时支持音画同步、多镜头生成及声音驱动等功能,被称为全球功能最全的视频生成模型 [1] - 该模型已同步上线阿里云百炼平台及万相官网,企业用户可通过API调用,千问APP也将于近期上线该模型并提供更丰富的玩法 [1][2] 产品技术能力与性能 - 万相2.6在画质、音效、指令遵循等能力上较前代万相2.5有所提升,单次视频生成时长达到国内最高的15秒 [1] - 模型新增角色扮演和分镜控制功能,能一键生成单人、多人、人与物合拍的视频,并自动实现多镜头切换等专业任务 [1] - 其角色扮演功能可参考输入视频中的角色外观、音色、语速等特征,实现从画面到声音的全感官一致性保持与迁移 [1] - 模型可将简单提示词转换为多分镜脚本,生成包含多个镜头的连贯叙事视频,并在多镜头切换中保持主体、场景等关键信息的一致性 [2] - 通过高层语义理解,模型能将原始输入构建为具备完整故事线与叙事张力的专业级多镜头段落 [2] 应用场景与用户体验 - 万相2.6使普通用户仅需几分钟即可生成一段镜头叙事完整、电影级运镜的短片,实现“电影主角梦” [2] - 面向广告设计、短剧制作等专业场景,模型能根据连续提示词生成包含人物角色和商品的完整叙事广告视频 [2] - 万相模型家族已支持文生图、图像编辑、文生视频等10多种视觉创作能力,并已广泛应用于AI漫剧、广告设计和短视频创作等领域 [3] 市场地位与过往成绩 - 今年9月发布的万相2.5模型在权威大模型评测集LMArena上,其图生视频能力位居国内第一 [1] - 万相2.5此前已通过音画同步功能极大提升了视频创作效率 [1]
阿里发布通义万相2.6系列视频生成模型,上线国内首个角色扮演功能 | 钛快讯
钛媒体APP· 2025-12-16 13:22
公司产品发布 - 阿里巴巴发布新一代万相2.6系列模型 该模型面向专业影视制作和图像创作场景进行了全面升级[1] - 万相2.6是国内首个支持角色扮演功能的视频生成模型 同时支持音画同步、多镜头生成及声音驱动等功能[1] - 该模型被描述为目前全球功能最全的视频生成模型[1] 产品功能与技术升级 - 万相2.6在画质、音效、指令遵循等能力上较前代有所提升 单次视频时长达到国内最高的15秒[2] - 模型新增角色扮演和分镜控制功能 能一键完成单人、多人、人与物合拍的视频 并自动实现多镜头切换等专业任务[2] - 角色扮演功能可参考输入视频中的角色外观和音色 按照提示词生成视频[3] - 模型集成了多项创新技术 可对输入参考视频进行多模态联合建模与学习 提取时序信息的主体情绪、姿态、视觉特征以及音色、语速等声学特征 实现从画面到声音的全感官一致性保持与迁移[3] - 模型可将简单提示词转换为多分镜脚本 生成包含多个镜头的连贯叙事视频 并在多镜头间保持主体、场景等关键信息的一致性[4] - 通过高层语义理解 模型能将原始输入构建为具备完整故事线与叙事张力的专业级多镜头段落 在镜头切换中保持核心主体、场景布局和环境氛围的统一[4] 应用场景与用户体验 - 角色扮演功能让普通用户也能在影视级画面里表现精湛演技 例如用户上传个人视频并输入科幻悬疑风格提示词 模型能在几分钟内完成分镜设计、角色演绎、画面配音 生成电影级短片[4] - 面向广告设计、短剧制作等专业场景 通过输入连续提示词 模型能生成一段完整叙事的短片 例如生成包含人物角色和商品的广告视频[4] - 万相模型家族已支持文生图、图像编辑、文生视频、图生视频、人声生视频、动作生成、角色扮演及通用视频编辑等10多种视觉创作能力[5] - 模型已广泛应用于AI漫剧、广告设计和短视频创作等领域[5] 市场地位与发布历史 - 今年9月 公司率先在国内发布音画同步的视频生成模型万相2.5 在权威大模型评测集LMArena上 其图生视频能力位居国内第一[2] - 此次发布的万相2.6进一步提升了多项能力 巩固了其技术领先地位[2] 产品获取与平台集成 - 即日起 所有人可直接在万相官网体验万相2.6[5] - 企业用户可通过阿里云百炼平台调用模型API[5] - 千问APP也将于近期上线该模型 并提供更丰富的玩法[5]
商汤发布业内首个多剧集生成智能体Seko2.0
证券日报网· 2025-12-15 19:43
公司产品发布与升级 - 商汤集团正式发布AI视频生成智能体Seko2.0,该产品是行业首个创编一体、多剧集生成智能体,专为短剧、漫剧行业的个人创作者与工作室打造 [1] - Seko2.0实现全新UI升级以提升视觉效果和沉浸式创意体验,支持多剧集生成功能,可管理超长上下文并支持100集以内剧本的连续创作 [1] - Seko2.0实现Agent智能调度,能在不同剧集中灵活关联人物、场景和道具,并支持人物妆造随场景改变 [1] 产品市场表现与用户基础 - 前代产品Seko1.0于2025年7月上线后,仅用两个月用户量即突破10万,不到半年已聚集超20万创作者 [1] - 在Seko1.0的用户社区中,30%为短剧创作者,20%为漫剧创作者,形成了一个高浓度的创作者社区 [1] 技术突破与成本优化 - 针对AI短剧/漫剧多剧集创作涉及海量分镜的高成本问题(如一个5秒视频需生成近10万token,一键生成10-20个分镜总token需求高达100万-200万),商汤提出PhasedDMD蒸馏技术以降低综合成本 [2] - PhasedDMD蒸馏技术是一套多步蒸馏框架,将分阶段蒸馏思想与专家混合模型相结合,使不同模型专精于生成流程的不同阶段,在不增加推理成本的前提下提升模型整体能力与效率 [2] - 商汤开源了行业首个能实现实时视频生成的推理框架LightX2V,通过DiT蒸馏加速、轻量化VAE、稀疏注意力等优化,实现低成本、强实时的视频生成 [2] - LightX2V在消费级显卡上能以不到5秒的时间生成5秒视频,该框架目前累计下载量已超350万次 [2] 未来发展方向 - 商汤未来将为创作者提供国产化方案选择,旨在以极致性价比开启AI视频创作的“低成本”时代 [3]
AI视频进入“连续叙事”时代:“一致性”成商业化发展瓶颈
21世纪经济报道· 2025-12-15 17:23
AI视频生成行业范式转移 - AI视频生成行业正经历从追求单帧画面真实感、动作连贯性到系统性探索“多集一致性”与“可持续创作”的范式转移 [1] - 行业竞争焦点已从“生成能力”转向“可持续创作能力”,工具平台的角色正转变为内容生产基础设施的构建者 [1] 行业核心挑战与共识 - 行业面临的核心深层问题是“内容能否持续”,关键在于多集剧情中角色与场景的一致性 [1] - 在短剧、漫剧、品牌系列广告等内容形态中,主体一致性、资产可复用性与工作流连贯性是AI视频走向商业闭环的关键门槛 [1] - 技术演示中的流畅片段难以直接转化为可消费的连续内容,“主体不一致”问题在多集内容中被急剧放大,成为制约商业化的瓶颈 [4] 商汤科技Seko的产品定位与进展 - 商汤科技于2025年7月推出“创编一体”AI视频智能体Seko,定位于为短剧、漫剧、广告片、教育课件等内容创作者提供端到端能力 [4] - Seko 2.0版本将焦点从“单集生成”转向“多集剧创作” [4] - 平台支持“自研模型+第三方模型”融合调度,通过统一的Agent链路实现跨模型的一致性保障 [5] - 平台已吸引超20万创作者,包括上百个短剧工作室,部分作品已成功上线主流平台 [5] - 平台内测于七月,八月正式对外推广,九月创作者快速增长到10万,目前创作者数量在20万多 [6] - 平台吸引的用户更多是高频的偏专业及半专业级别创作者,价值较高 [6] 技术路径与商业价值 - 长内容的核心价值在于实现可衡量的投资回报,其基础是人物主体一致性、故事情绪延展、场景世界观连贯 [2] - 单点模型优势正在让位于系统工程能力,行业目标指向构建可延续的IP资产池 [5] - 整体制作流程高度依赖Seko的多集分镜生成与资产复用能力,采用“主干用AI、细节人工补”的混合模式 [5] - 通过模型结构蒸馏、算子优化及国产芯片适配,Seko已实现推理成本下降约50% [7] 平台竞争趋势与用户体验 - 平台竞争正从“模型参数”转向“用户体验”与“工作流整合”,头部玩家关注如何让非技术背景创作者快速将想法变成视频 [6] - 平台设计采用“低频用户一键生成、高频用户深度可控”的双轨模式,每一步骤都可对话修改、多次修正 [6] - 技术的终极价值被定位为释放人类创造力,而非替代人类 [7]