Workflow
豆包图像创作模型Seedream
icon
搜索文档
除夕夜 豆包Seedance2.0登上春晚
新京报· 2026-02-17 23:11
核心观点 - 2026年马年春晚成为AI视频生成模型Seedance 2.0的重要应用展示平台,标志着该模型在复杂、高审美要求的影视级内容制作中实现了从“能生成”到“能精控”的突破 [1][3] 技术应用与春晚节目表现 - Seedance 2.0深度应用于至少三个春晚节目,春晚是其首个“客户” [1][2] - 在节目《贺花神》中,模型为12位明星定制了“一月一人一景,一花一态一观”的视觉奇观,采用“AI生成影像+实景舞台扩展”模式,构建全新舞台叙事结构 [1][3] - 该节目要求细节密度高,涉及特写镜头、微观变化及高审美要求,模型需处理植物缓慢绽放等细微动作,任何抖动或失真都会被放大,最终完成度体现了模型的精细控制能力 [3] - 在节目《驭风歌》中,模型将国宝级水墨画《六骏图》首次以动态形式呈现,使骏马完成奔跑、腾跃等高难度动作并配合流畅运镜 [5] - 模型克服了水墨画风格动态化常见的僵硬“贴图动画”问题,让每匹马的奔跑遵循自然规律,四肢关节运动合理,动作流畅,身体受力符合物理逻辑,展现了强悍的物理特性遵循能力 [5] - 在节目《快乐小马》中,模型让多个卡通吉祥物精准模仿了四段不同的真人热门舞蹈视频,实现了跨物种、异构形态的精准动作迁移 [5] 技术优势与行业影响 - Seedance 2.0的视频动作迁移能力,极大简化了传统动画制作中需要繁琐3D骨骼绑定和手动K帧的流程,降低了创意变化带来的时间和成本,释放了创意空间 [6] - 在《驭风歌》制作中,静态关键帧和分镜由豆包图像创作模型Seedream完成,该模型能深刻理解水墨画艺术风格,并根据导演草图生成兼具原画神韵与新构图的静态图像,为视频生成提供高质量“蓝本” [5] - 知名导演贾樟柯使用Seedance 2.0制作并发布了AI贺岁短片《贾科长Dance》,展示了该模型运用到影视行业的可能性 [1][7] - 贾樟柯表示,AI技术发展迅速,从几年前的“一眼假”到如今可以一句话生成完成度相当不错的视频,速度很快,并认为技术不会取代电影,重要的是人如何使用技术 [9] - 美国知名电影编剧瑞特·里斯评论认为,此类工具将打破好莱坞作为“守门人”的壁垒,使没有资金的青年也能制作出与好莱坞水准相当的作品,预示着令人震惊的作品即将诞生 [10]
今年春晚的C位,变了
虎嗅APP· 2026-02-17 22:10
2026年“AI春晚”核心事件 - 火山引擎拿下2026年央视春晚独家AI云冠名,互联网大厂争相与地方卫视春晚合作,旨在通过春晚的陡峭增长曲线争夺产品心智和AI原生应用入口[1] - 2026年央视春晚成为“首届AI春晚”,火山引擎将旗下豆包系列AI模型深度融入舞台创作,打造多个刷屏节目[2] - 豆包在C端互动表现突出,除夕当天AI互动总数达19亿次,“豆包过年”活动生成超5000万张新春主题头像和超1亿条新春祝福[2] 豆包大模型在春晚舞台创作中的技术突破 - 春晚导演组面临艺术效果、迭代节奏与创新要求的“不可能三角”挑战,传统动画制作和国内外主流视频生成模型均无法满足需求[4][6] - 豆包视频生成模型Seedance 2.0在《贺花神》节目中,为演员定制个性化视觉奇观,实现了对花朵绽放节奏、纹理清晰度、光影层次的精准控制[7][9] - Seedance 2.0具备精细控制能力,支持根据导演指令进行二次编辑,形成生成-反馈-迭代闭环,并可将视频提升至春晚要求的8K/50FPS超高清标准[9] - 在《驭风歌》节目中,Seedance 2.0成功将徐悲鸿《六骏图》的静态水墨马动态化,六匹马的动态符合物理规律,墨色与原画一致,并能与演唱节奏契合[9] - 豆包大模型能高效交付(6天完成初版),核心优势在于“懂中国风”(训练数据涵盖传统文化)和能精准响应细粒度创作指令[11] - 创作过程为“AI+导演”深度共创模式,导演手绘关键帧,技术团队调整指令,AI快速生成并迭代[11] - 空间视频技术结合豆包大模型,在《梦底》节目中实现了明星数字分身的实时光影同步和运镜交互效果,拍摄时使用70台相机收集3D素材[13] - AI在春晚的应用并未取代人类创意人员,而是将艺术家从繁琐技术实现中解放出来,创意方向、分镜设计等仍由人类把控[13] C端互动模式的颠覆与算力挑战 - 豆包APP通过“豆包过年”活动重构春晚互动逻辑,从过去事务型流量承载(如抢红包)变为“AI创作+抽奖”的千人千面体验[15][18] - 新的互动模式使生成式AI成功破圈,覆盖全年龄段用户,单次请求算力消耗高达10 Tops,是传统春晚互动算力消耗的100万倍[18] - 除夕当天,豆包大模型峰值TPM(每分钟token数)出现在21时46分,推理吞吐量达633亿tokens,首次实现亿级用户规模的大模型推理并发[20] - 面对瞬时算力洪峰,请求无法异步处理,且需与抖音、头条等业务争夺算力资源,调度难度极大[20] 火山引擎的技术调度与优化能力 - 火山引擎将多种异构资源池统一合并调度,实现分钟级调度几十万核CPU、上万卡GPU,成功承接流量峰值[21] - 在调度层,通过整合不同机房和机型资源,并利用业务错峰(如豆包互动与抖音弹幕审核)动态分配资源,使资源利用率提升30%以上[22] - 在推理层,通过体系结构、算子、系统全链路优化,实现算力倍增,降低大模型推理成本[22] - 在生态层,相关技术突破形成可复用的行业解决方案,可降低全行业AI视频生成成本,并已与40余家具身智能公司合作[23][24]
盘点2025:模型服务,成为基础设施
第一财经· 2025-12-30 18:15
全球MaaS市场格局与火山引擎的崛起 - 截至2025年10月,全球MaaS市场前三名为OpenAI、谷歌云、火山引擎,市场份额分别为31%、19%、15%,三家合计占据全球市场65%的份额[1] - 火山引擎以30万亿日均Tokens调用量位居全球第三,仅次于OpenAI的70万亿和谷歌云的43万亿[3] - 火山引擎是前三名中唯一的中国厂商,正凭借MaaS服务在AI云市场快速突围[3] 火山引擎的增长与市场地位 - 2025年,火山引擎实现100%的同比增长,营收超过200亿人民币[6] - 由于MaaS商业化和模型迭代超预期,公司原计划于2030年实现的1000亿营收目标被上调了百分之几十[6] - 2025年上半年,火山引擎在中国公有云大模型服务市场份额扩大至49.2%,意味着中国公有云上每产生两个tokens就有一个由其生产[14] - 在Gartner 2025年度全球《AI应用开发平台魔力象限》中,火山引擎领跑“挑战者”象限,其“执行能力”位列全球第五、中国第一[14] 关键增长驱动与战略举措 - 2024年5月15日,火山引擎推出豆包大模型API服务,通过技术创新将主力模型定价从“分计价”拉入“厘计价”时代,降幅高达99.3%,引发了行业降价潮并推动了市场“从无到有”般的增长[6] - 2025年2月1日,DeepSeek-R1登陆火山方舟,模型推理服务全面爆发,火山引擎成为市场上吃到最多DeepSeek推理服务红利的云厂商[7] - 豆包大模型与DeepSeek的爆红,共同催生了中国MaaS市场,IDC报告显示2024年7月和2025年2月是中国公有云大模型调用量月度环比增长率最高的两个拐点[8][10] - 豆包大模型调用量呈指数增长,推出不到600天,其最新日均调用量已达63万亿Tokens[3][4] 产品迭代与调用量增长的正循环 - 2025年6月以来,豆包大模型家族密集发布了1.6、1.8版本以及视频生成、图像编辑、语音、图像创作等多个模型,每次模型能力提升都解锁了更多应用场景并带动调用量增长[10] - 伴随模型发布节奏,几乎每3个月模型调用就会迎来一次更陡峭的增长[11] - 公司认为,大的模型调用量能打磨出更好的模型和基础设施,来自B端场景的真实反馈可以指导下一代模型的训练路线图[15][16][18] - 大规模调用量能迭代出更极致的基础设施,优化推理成本,例如通过PD分离、xLLM推理框架等方式在2024年5月大幅降低模型推理价格[18] - MaaS服务已成为火山引擎增长最快、毛利最高的AI云计算产品,参照DeepSeek公布的推理服务最高成本利润率可达545%[18] 字节跳动的技术溢出与协同优势 - 火山引擎63万亿日均Tokens调用量的用户基础,部分来源于字节跳动的溢出效应[20] - 公司受益于B端和C端的极致协同,字节跳动的C端产品(如豆包App)拥有大量用户并大规模调用模型,这帮助火山引擎优化服务,同时豆包App也成为向企业客户展示能力的窗口[20][21] - 字节跳动内部50多个业务线在AI实践上走得更靠前,尝试了众多Agent,这为火山引擎提供了宝贵的认知和know-how[23] - 云计算是规模体系的比拼,火山引擎的崛起得益于字节跳动庞大的业务体系托举和技术外溢,这与AWS、谷歌、阿里等头部云厂商的路径类似[24] - 字节跳动通过火山引擎持续把新模型、新技术开放给企业客户,以在更大市场经受检验[24][25] 未来战略:从MaaS到AI云原生 - 在取得MaaS份额第一后,火山引擎的战略目标依旧是MaaS优先[27] - 公司致力于降低AI应用门槛,通过更高层次的封装和成本优化加速AI普惠[27] - 在基础MaaS层,追求模型效果更好、成本更低、易用性更高,并推出了Prompt Pilot、Model Router和Responses API等工具[27] - 在更底层,推出了模型的推理代工服务,客户可将自己的模型托管在火山方舟上,无需自建基础设施[27] - 随着应用迈向以Agent为技术主体,公司正构建以模型为中心的AI云原生架构,MaaS是使用模型的最佳方式,云平台和中间件进一步把Tokens组装成Agents[28] - 作为国内率先推出Agent开发、运营全套产品的云厂商,火山引擎已将豆包助手API、即梦API对外提供服务[30] - Agent的商业逻辑从tokens调用的IT预算,转向类似BPO(人力外包)的角度,市场天花板有望扩大很多倍[30]