Workflow
TurboDiffusion
icon
搜索文档
马斯克评宇树机器人「下黑脚」/OpenAI联创:从未感到如此落后/围棋比赛选手戴AI眼镜引争议|Hunt Good周报
搜狐财经· 2025-12-28 15:28
欢迎收看最新一期的 Hunt Good 周报! 在本期内容你会看到: 7 条新鲜资讯 4 个鲜明观点 12 月 27 日,特斯拉 Cybertruck 项目首席工程师在社交平台分享了这段视频后迅速引发传播。 马斯克本人也看到了这个视频,在评论区发了一个「 笑哭」表情包作为回应。这也是他继上次评价宇树 G1 在王力宏演唱会上的表现后,近期内第二 次对宇树机器人发表看法。 围棋比赛选手引发争议,被曝佩戴 AI 眼镜 Hunt for News|先进头条 马斯克再评中国机器人,测试时对工程师「下黑脚」 宇树科技 G1 人形机器人在动作训练期间的意外举动近日成为网络热点。 测试视频显示,当工程师演示格斗动作供机器人学习时,机器人突然抬脚踢向测试人员。 视频出处看左上角 2025 年 12 月 21 日至 26 日, 第八届「杀猪大会」全品级围棋大赛在浙江绍兴举行。 比赛采用 60 分钟保留时间每步加 10 秒制, 个人积分编排制共 11 轮, 按棋份对局分为九品, 其中前六品细分正品和从品, 后三品只有正品。 比赛期间,业余 5 段选手李蒙七轮连胜, 赢下多名正一品职业棋手,其后被发现佩戴 AI 眼镜并因此遭到质疑。 ...
视频生成DeepSeek时刻!清华&生数开源框架提速200倍,一周斩获2k Star
机器之心· 2025-12-26 12:35
核心观点 - 清华大学TSAIL团队与生数科技联合发布的TurboDiffusion加速框架,将AI视频生成从“分钟级等待”带入“秒级实时”时代,实现了高达200倍的推理加速,是行业发展的关键转折点[1][3][52] 技术突破与核心优势 - **加速效果显著**:在单张RTX 5090显卡上,主流视频生成模型的推理速度得到百倍提升,例如将14B模型生成5秒720p视频的时间从4767秒缩短至24秒,加速近200倍[1][26][43];将1.3B模型生成5秒480p视频的时间从184秒缩短至1.9秒,加速97倍[39][40] - **攻克核心瓶颈**:该框架成功击破了扩散模型生成高质量视频面临的主要壁垒——高推理延迟,通过系统性优化解决了处理海量时空token导致的耗时问题[7] - **四大核心技术驱动**:通过混合注意力加速、高效步数蒸馏、W8A8线性层量化以及训练阶段的并行策略协同作用,实现加速[13][21] - **混合注意力加速**:结合SageAttention(低比特量化注意力)与Sparse-Linear Attention(稀疏线性注意力),两者正交叠加可获得数倍额外加速[14][17][19] - **高效步数蒸馏**:引入rCM蒸馏方法,将采样步数从100步大幅减少至3-4步,同时保持视频质量[20] - **W8A8线性层量化**:对模型权重和激活值进行8-bit分块量化,将模型大小压缩约一半,并利用INT8 Tensor Cores加速计算[21] - **训练优化策略**:采用并行训练,将预训练模型的全注意力替换为SLA进行微调,同时使用rCM进行蒸馏,最后合并参数,以平衡推理效率与生成质量[22] 实际应用与性能表现 - **支持多种模型**:框架已支持包括TurboWan2.2-I2V-A14B-720P、TurboWan2.1-T2V-14B-720P等多个文生视频、图生视频模型版本,提供480p至720p的最佳分辨率[8][9] - **图生视频加速**:在14B模型生成5秒720p视频的任务中,实现了几乎无损的端到端119倍加速[31] - **文生视频加速**:在14B模型生成5秒720p视频的任务中,实现几乎无损的端到端200倍加速[43] - **商业模型集成验证**:在生数科技自研的Vidu模型上,生成8秒1080p视频的延迟从900秒提速到8秒,且不损失生成质量[47][48] 行业影响与产业落地 - **开启新范式**:标志着AI视频创作从“渲染与等待”模式向“实时生成”时代转变的关键节点[3][52] - **降低算力门槛**:使高端视频创作能力从昂贵的H100等专业显卡下沉到RTX 5090等消费级显卡,极大降低了个人创作者的算力门槛[52] - **技术广泛部署**:核心组件SageAttention作为全球首个注意力计算量化加速方案,已被工业界大规模部署,集成至NVIDIA Tensor RT,并落地于华为昇腾、摩尔线程等主流GPU平台[27] - **头部企业应用**:腾讯混元、字节豆包、阿里Tora、智谱清影、百度飞桨、昆仑万维、Google Veo3、商汤等国内外科技公司已在核心产品中应用相关技术,创造了可观经济效益[27] - **未来应用场景**:为AI视频直播、个性化视频流、AR/VR实时内容渲染等需要即时反馈的应用场景的落地铺平了道路[52]
腾讯研究院AI速递 20251226
腾讯研究院· 2025-12-26 00:57
一、英伟达获Groq技术授权,「收编」TPU之父和工程团队 1. 英伟达与AI芯片初创Groq达成非独占性推理技术授权协议,传闻涉资200亿美金,Groq创始人兼谷歌TPU之父 Jonathan Ross及工程团队加入英伟达; 生成式AI https://mp.weixin.qq.com/s/wKH2smBGVXbawzY4DCvk8g 3. SageAttention已成功集成至NVIDIA TensorRT并部署于华为昇腾、摩尔线程等平台,腾讯混元、字节豆包、阿里 Tora等头部企业均已应用。 https://mp.weixin.qq.com/s/AQ3c0Jewh1k2FRmLkWF2TQ 三、上海联合商汤推出了能调三维地图的AI,云宇星空大模型 1. 上海市规划资源局与商汤大装置联合打造全国规划资源领域首个6000亿参数基础大模型"云宇星空",实现问不 倒、能调图、会统计、能识图、会报告五大能力; 二、清华联手生数开源TurboDiffusion,视频生成加速新框架 2. Groq专注推理阶段LPU芯片,单卡可达500 token/秒输出速度,比英伟达GPU快10倍,采用时序指令集计算机架 构避免HB ...
单卡2秒生成一个视频,清华联手生数开源TurboDiffusion,视频DeepSeek时刻来了
36氪· 2025-12-25 20:12
包括Meta研究员和伯克利教授也站台打call: 现在生成一个视频,比你刷视频还要快。 因为一个开源新框架,竟能让视频生成在保证质量的情况下,最高提速200多倍! 而且还是单张显卡就能hold住的那种,来感受一下这个feel: 没错,原先1.3B-480P在单张RTX 5090生成一个5秒的视频,需要的时间大概是184秒。 而现在,只需要1.9秒,速度足足提升97倍! 这背后,便是清华大学TSAIL实验室和生数科技联合开源的视频生成加速新框架——TurboDiffusion。 | 新框架一出,网友们也是不淡定了,直呼: | | --- | | 我们已经进入到了生成的视频比看的视频还多的时代。 | 2秒就能生成一个视频 过去,视频生成虽然惊艳,但慢,一直是个老大难的痛点问题。 想生成一段几秒的高质量视频,模型往往需要在大显存高端显卡上吭哧吭哧跑上几分钟到几十分钟。这种延迟,极大限制了创作者的灵感爆发和实时交互 的可能性。 TurboDiffusion的出现,就是为了解决这个问题。 咱们直接看一组数据。 在单张RTX 5090上,针对1.3B大小的文生视频模型: 1. 原始生成:生成一段480P视频需要约184秒 ...
单卡2秒生成一个视频!清华联手生数开源TurboDiffusion,视频DeepSeek时刻来了
量子位· 2025-12-25 19:51
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 现在生成一个视频,比你刷视频还要快。 因为一个 开源新框架 ,竟能让视频生成在保证质量的情况下,最高 提速200多倍! 而且还是 单张显卡 就能hold住的那种,来感受一下这个feel: 没错,原先1.3B-480P在单张RTX 5090生成一个5秒的视频,需要的时间大概是184秒。 而现在,只需要 1.9秒 ,速度足足提升97倍! 这背后,便是清华大学TSAIL实验室和生数科技联合开源的视频生成加速新框架—— TurboDiffusion 。 新框架一出,网友们也是不淡定了,直呼: 我们已经进入到了生成的视频比看的视频还多的时代。 | 包括Meta研究员和伯克利教授也站台打call: | | --- | 2秒就能生成一个视频 在单张RTX 5090上,针对1.3B大小的文生视频模型: 算下来,相对于原始模型,TurboDiffusion实现了约 97倍 的加速! 若是模型再大一些,例如14B的图生视频模型,清晰度为720P,效果也是立竿见影,仅需38秒就能搞定: 同样是720P的文生视频模型,所需要的时间也仅仅24秒: 原始生成:生成一段480P视频需要 ...
清华系DeepSeek时刻来了,硅谷沸腾,单卡200倍加速,视频进入秒级时代
36氪· 2025-12-23 18:46
核心观点 - 清华大学TSAIL实验室与生数科技联合开源了视频生成加速框架TurboDiffusion,该框架在几乎不影响生成质量的前提下,将AI视频生成速度提升了100-200倍,标志着AI视频生成从“分钟级”进入“秒级”实时时代 [1][3] 技术突破与性能表现 - 该框架是一个专为Diffusion模型加速的工具,尤其擅长处理视频生成场景,在单张RTX 5090消费级显卡上即可实现100-200倍的速度提升 [8] - 实测中,对于1.3B大小的模型生成5秒视频,标准实现需184秒,而TurboDiffusion仅需1.9秒,速度提升约97倍 [10] - 对于14B大小的图生视频模型生成5秒720P视频,标准实现耗时4549秒(超过1小时),TurboDiffusion仅需38秒,速度提升约120倍 [14] - 对于14B大小的文生视频模型生成5秒720P视频,TurboDiffusion在单张RTX 5090上可实现几乎无损的端到端加速200倍 [17] - 在Vidu模型上生成8秒1080P高清视频,原本需要900秒,使用TurboDiffusion后仅需8秒 [21] 核心技术构成 - **SageAttention**:采用低比特量化注意力加速技术,是全球首个实现注意力计算量化加速的技术方案,已集成至NVIDIA TensorRT等主流GPU平台 [24][25][26] - **Sparse-Linear Attention (SLA)**:引入稀疏注意力加速,可构建在SageAttention之上,显著减少冗余计算,获得数倍的额外加速 [24] - **rCM步数蒸馏加速**:采用先进的步数蒸馏方法,可将原始Diffusion模型所需的50-100步采样压缩到4-8步,降低延迟而不损失画质 [24][25] - **W8A8 INT8量化**:在线性层采用INT8量化策略,将模型权重和激活映射到8位整数空间,显著降低推理功耗与内存占用 [25] 行业影响与生态应用 - 该技术已在国内外头部科技企业的核心产品中得到应用,包括腾讯混元、字节豆包、阿里Tora、生数Vidu、智谱清影、百度飞桨、昆仑万维、Google Veo3、商汤、vLLM等 [26] - 该框架的推出被视为视频生成领域的“DeepSeek时刻”,其开源特性(代码与模型全部开源)有望降低AI视频生成的使用门槛,推动其从高门槛专业领域向人人可用的内容创作工具普及 [1][27][29]