Workflow
机器之心
icon
搜索文档
人人皆可创作音乐!腾讯AI Lab开源音乐生成大模型SongGeneration
机器之心· 2025-06-20 08:58
模型核心功能与优势 - 腾讯AI Lab推出开源SongGeneration音乐生成大模型,专注解决音质、音乐性与生成速度三大难题,基于LLM-DiT融合架构,生成速度与音质表现显著提升,质量媲美商业闭源模型[1] - 支持文本控制、多轨合成与风格跟随功能,兼顾C端可玩性与B端稳定性,构建未来音乐AI生产力工具[2] - 模型参数量3B,采用codec、LM、FM、VAE模块化设计,支持48kHz采样率音乐生成,具备音色克隆级人声表现[12][15][13] 技术创新突破 - 首创25Hz极低码率+0.35kbps超低比特率双通道编解码器,实现最佳音乐重建效果[19] - 提出"混合优先+双轨其次"并行预测策略,解决人声伴奏不和谐问题,序列长度缩减50%[21] - 业内首个多维度人类偏好对齐模型,通过半自动数据构建解决音乐性/歌词对齐/提示一致性三大挑战[23][25] - 创新三阶段训练范式(预训练+模块化扩展+多偏好对齐),优化生成质量与指令遵循能力[27][30] 评测表现 - 客观评测中CE(7.78)、CU(7.90)、PQ(8.46)三项指标位列榜首,PC(6.03)领先[33] - 主观评测歌词准确度(PER 7.2)超越Suno v4.5等商业模型,旋律/伴奏/音质维度与顶级商业模型持平[32][34] - 综合表现开源模型第一,商业模型前二,在结构连贯性(开源第一)与情感表达力上优势显著[32][34] 应用场景与生态布局 - 覆盖短视频配乐、游戏音效、虚拟人演出、商业广告及个人创作等场景,推动AI音乐从"辅助工具"向"智能共创"演进[5] - 开源版本支持多语种歌词输入、一键生成、风格迁移,适配流行/嘻哈/古风/电子等曲风[6][13] - 通过Hugging Face全面开放模型权重与代码,构建开放音乐AI生态系统[36]
Andrej Karpathy最新演讲爆火!人类已进入「说话就能编程」的软件3.0时代
机器之心· 2025-06-20 08:58
软件演进阶段 - 软件发展划分为三个阶段:人工编写指令的「软件1.0」、以神经网络权重为核心的「软件2.0」、由LLM开启的「软件3.0」[8] - 软件1.0是直接为计算机编写的代码,软件2.0是神经网络的权重,软件3.0则是用自然语言编程LLM[24][25] - 软件2.0领域已出现类似Github的平台如Hugging Face和Model Atlas[21] LLM本质与特性 - LLM可被视为一种「新型操作系统」,其核心设置类似CPU,上下文窗口类似内存[52] - LLM是「有缺陷的超人」:知识渊博但会产生幻觉、犯低级错误且没有长期记忆[14] - LLM具有基础设施属性,类似电网建设,通过API按量计费提供智能服务[38] - LLM生态系统类似操作系统市场,有闭源提供商和开源替代品如Llama[49] 行业应用与机遇 - 当前最大机遇是开发「部分自主性」产品,而非完全自主AI[14] - Cursor和Perplexity是早期LLM应用典范,具备上下文管理、多次调用编排和自主性滑块等特性[101][103][107] - 未来软件将普遍具备「自主性滑块」,允许用户调整自主程度[104] - 需要重构数字基础设施使其对AI友好,如将文档转为Markdown格式[170][176] 开发范式转变 - 自然语言成为新编程接口,提示词就是编程LLM的程序[27] - 出现「氛围编程」现象,非专业人士也能通过自然语言描述构建软件[141][144] - 开发者需掌握三种编程范式(1.0/2.0/3.0)并根据场景灵活选择[34] - 开发流程中「生成-验证」循环的快速运转是关键,GUI可极大提升验证效率[117] 未来发展趋势 - 当前处于类似1960年代的计算纪元,LLM算力仍集中在云端[59][64] - 需要为AI重新设计数字基础设施,使其机器可读、可操作[14][187] - 未来十年将见证技术从增强工具向自主智能体的渐进式演进[189] - 钢铁侠战衣式增强工具比完全自主智能体更适合当前技术阶段[134]
推荐大模型来了?OneRec论文解读:端到端训练如何同时吃掉效果与成本
机器之心· 2025-06-19 17:30
核心观点 - 推荐系统正经历由大型语言模型(LLM)驱动的生成式革命,端到端架构成为解决传统级联架构瓶颈的关键[2] - 快手提出的OneRec系统首次实现端到端生成式推荐全链路重构,在效果与成本上实现双赢[2][8] - OneRec已在快手双端应用,承接25% QPS,提升停留时长0.54%/1.24%,LT7显著增长[2][33] 技术架构创新 - **架构设计**:采用Encoder-Decoder框架,将推荐转化为序列生成任务,Encoder压缩用户行为序列,MoE架构Decoder实现参数扩展[6][11] - **多模态分词**:首创协同感知方案,融合视频标题、标签、语音转文字等多维信息,分层语义编码(RQ-Kmeans三层ID)[13][14] - **强化学习整合**:通过P-Score奖励模型(个性化融合目标预测值)和ECPO优化算法,提升用户停留时长而不损失曝光量[19][22][25] 性能与效率突破 - **算力利用率**:训练/推理MFU提升至23.7%/28.8%,较传统精排模型(4.6%/11.2%)提升3-5倍[27][31] - **成本优化**:OPEX降至传统方案的10.6%,关键算子数量压缩92%至1,200个[27][31] - **训练加速**:自研SKAI系统优化Embedding训练,UGMMU减少kernel数量,时间加权LFU算法提升缓存效率[36] 实验效果 - **短视频场景**:AB测试显示停留时长提升0.54%/1.24%,LT7增长0.05%/0.08%,交互指标全面正向[33] - **本地生活场景**:GMV增长21.01%,订单量提升17.89%,新客获取效率提高23.02%,已100%全量上线[34] - **Scaling Law验证**:参数规模从0.015B增至2.633B时,训练损失显著下降,符合大模型扩展规律[15] 未来方向 - **多模态桥接**:需构建用户行为与LLM/VLM的原生融合架构[38] - **奖励系统完善**:当前设计较初级,需强化对用户偏好和业务需求的引导[38] - **推理能力提升**:Infer阶段Scaling能力不足,需进一步优化[38]
何恺明CVPR最新讲座PPT上线:走向端到端生成建模
机器之心· 2025-06-19 17:30
CVPR 2024视觉生成建模前沿进展 核心观点 - 生成模型可能重现识别模型从逐层训练到端到端训练的历史演进路径,当前主流方法(如扩散模型)仍处于"AlexNet前时代"的多步迭代阶段[36][81] - 何恺明团队提出的MeanFlow框架在单步生成任务上实现突破,1-NFE生成FID达3.43,较之前最佳方法提升50%-70%[101][107][108] - 视觉生成建模正朝着端到端、前馈式方向演进,流匹配(Flow Matching)技术成为关键突破口[59][81] 技术演进路径 历史对照 - 识别模型在AlexNet后全面转向端到端训练,取代了DBN/DAE等逐层训练方法[10][15] - 当前生成模型(扩散/自回归)仍依赖多步推理,类似识别模型的"前AlexNet时代"[36] 方法论创新 - 提出平均速度场(Average Velocity)概念替代瞬时速度场,建立MeanFlow Identity理论框架[83][90] - 通过Jacobian-vector product计算时间导数,避免直接积分带来的计算复杂度[92] - 训练损失函数设计包含停止梯度(stopgrad)机制,防止高阶梯度干扰[93][96] 性能突破 ImageNet 256x256实验结果 - MeanFlow-XL/2模型: - 1-NFE生成FID 3.43,较Shortcut-XL/2的10.60提升67%[107] - 2-NFE生成FID 2.20,较iMM-XL/2的7.77提升71%[108] - 参数量与性能呈正相关: - 131M参数版本FID 6.17 → 676M参数版本FID 3.43[103][107] 横向对比 - 显著超越GANs(BigGAN FID 6.43)和自回归模型(MaskGIT FID 6.18)[109] - 接近多步扩散模型性能(DiT-XL/2 250步FID 2.10),但推理步数减少两个数量级[109] 行业研究方向 前沿技术路线 - 一致性模型(Consistency Models)系列:iCT/ECT/sCM等改进版本[110] - 双时间变量模型:CTM/Flow Map Matching/Shortcut Models[111] - 归一化流重构:TarFlow等新型架构[113] 开放性问题 - 如何构建不依赖迭代框架的真正端到端生成公式[113] - 神经网络在捕捉隐式轨迹与简化生成过程间的平衡优化[113] - 生成模型的"AlexNet时刻"尚未到来,存在范式创新空间[81][113]
27、42、73,DeepSeek这些大模型竟都喜欢这些数!为什么?
机器之心· 2025-06-19 11:50
AI模型数字猜测偏好现象 核心观点 - 多个主流AI模型(GPT-4o、Claude、Grok、Gemini、DeepSeek)在1-100猜数任务中优先选择42,其次为73 [2][4] - 部分模型(如豆包)在1-50猜数任务中倾向选择27,该现象被Andrej Karpathy及Artificial Analysis验证,涉及Command A、Qwen3等模型 [6][9] - 数字偏好范围扩大至1-1,000或1-1,000,000时,模型选择不再统一 [11] 技术分析 - 数据集影响:偏好微调数据集(如Scale AI提供)可能导致模型输出偏差,反映人类对末尾为7数字的偏好 [18][19] - 文化因素:42源自《银河系漫游指南》文化梗,73因素数特性及《生活大爆炸》关联被模型优先选择 [23] - 模型自我解释:Gemini选择42时综合流行文化意义与用户趣味需求,ChatGPT归因于心理偏差与统计趋势 [21][22] 学术研究支持 - ICML 2025论文证实GPT-4o在0-9猜数中偏好7,但多轮对话后可自我纠正 [27] - 现象非完全可复现,Karpathy测试中部分模型存在结果波动 [8]
单应计算加速数十倍、计算量减少95%!基于几何的SKS和ACA矩阵分解被提出
机器之心· 2025-06-19 11:50
论文简介 - 东华大学、上海交通大学、中科院自动化所研究团队提出两种基于几何的单应矩阵分解方法,相比传统稀疏线性方程组方法减少95%以上计算量,显著提升二维码扫描等视觉应用效率[3] - 该方法适用于射影几何、计算机视觉和图形学领域,论文已被IEEE T-PAMI期刊接收[4] - 论文标题为《Fast and Interpretable 2D Homography Decomposition: Similarity-Kernel-Similarity and Affine-Core-Affine Transformations》,提供代码、视频介绍及奖金激励[5] 问题背景 - 平面单应是8自由度的3×3矩阵,传统DLT方法通过构建稀疏线性方程组求解,OpenCV实现需约2000次浮点运算[6] - 改进方法包括3×3矩阵SVD分解(1800次运算)和定制化高斯消元法(220次运算),二维码场景可进一步简化但缺乏研究[7] 核心方法 - SKS变换利用两组对应点分解单应为相似-射影核-相似变换,通过标准点转换和双曲相似变换实现几何层次化求解[9][10][11] - ACA变换通过三组对应点实现仿射-射影核-仿射分解,仅需85次浮点运算,正方形模板场景可优化至29次运算[15][16][18] 性能对比 - ACA分解单次计算仅需17纳秒,相比DLT+LU方法实现43倍实际加速(理论FLOPs提升20倍)[21][22] - SKS方法在O2优化下实现29倍加速,超越理论11倍FLOPs改进,因避免了条件判断等额外开销[22] 应用前景 - 日均百亿次二维码扫描场景中,新方法可减少浮点运算量,相比传统DLT+LU节省显著[24] - 技术可集成于相机标定、图像拼接、AR等视觉任务,并延伸至深度学习单应估计、P3P姿态估计等研究方向[24][25]
数据减少超千倍,500 美金就可训练一流视频模型,港城、华为Pusa来了
机器之心· 2025-06-19 10:28
核心观点 - 帧感知视频扩散模型(FVDM)通过引入向量化时间步变量(VTV)解决了传统标量时间步在视频生成中的局限性,显著提升时序建模能力 [2][18][19] - Pusa项目是FVDM理论的实际应用,探索出极低成本微调大规模预训练视频模型的有效路径,训练成本降低超200倍,数据需求减少超2500倍 [3][5] - Pusa通过非破坏性微调预训练模型(如Wan-T2V 14B),仅需500美金成本即可达到优于原模型的效果,同时解锁图生视频、首尾帧、视频过渡等多项功能 [5][35] - Pusa-Mochi版本进一步降低成本至100美金,实现高效视频生成 [11] - 完整代码库、训练数据集和训练代码已全面开源,旨在推动领域共同进步 [17] 技术原理 - 传统视频扩散模型采用标量时间变量,无法捕捉帧间动态关系 [18] - FVDM引入向量化时间步变量$$\mathbf{r}(t)=\left[\tau^{(1)}(t),\tau^{(2)}(t),...,\tau^{(N)}(t)\right]^{\top}$$,允许每帧独立噪声扰动 [18][19] - 扩展前向随机微分方程(SDE)以适应向量化时间步,每帧经历独立高斯分布噪声扰动 [20] - 设计集成反向SDE封装跨帧依赖关系 [23] - 基于分数的模型近似分数函数$$s_{\theta}(\mathbf{X},\tau(t))\approx\nabla_{X}\log p_{t}\left(\mathbf{X}\right)$$ [24] 网络架构与训练 - 对Mochi1及Wan等开源视频模型进行非破坏性改造,将标量时间步输入扩展为(B, N)形状向量化时间步 [27][28] - 通过正弦位置编码将时间步转换为(B, N, D)嵌入表示,通过adaLN-Zero等机制作用于Transformer层 [28] - 独创概率性时间步采样训练策略(PTSS),以概率为每帧采样随机独立时间步或相同时间步,解耦时序动态与基础生成能力学习 [29][30] - 非破坏性改造使模型初始即具备基础能力,仅需少量独立时间步微调即可掌握时序动态控制 [33] 应用效果 - Pusa-Wan实现500美金成本下优于原模型效果,保留文生视频能力同时解锁图生视频、首尾帧、视频过渡、视频拓展等功能 [5][35] - Pusa-Mochi版本仅需100美金训练成本 [11] - VTV机制支持多样帧级控制采样算法,如输入图像作为任意帧时可不加噪或加少量噪声 [35] - 测试样例展示大白鲨游泳、奶牛吃干草、戴墨镜男子驾驶汽车等场景生成效果 [7][9] 行业影响 - FVDM理论通过VTV带来视频生成根本性变革 [2][37] - Pusa项目以惊人低成本和高效微调策略将理论付诸实践,推广至强大预训练模型 [3][37] - 开源策略推动领域共同进步,探索更多可能性 [17][37]
77万人围观的吉卜力风「游戏」视频,我们用3个国产AI整出来了(含提示词)
机器之心· 2025-06-19 10:28
AI在游戏开发中的应用潜力 - 网友通过AI工具生成吉卜力风格游戏视频并登上Reddit热榜,展示AI在游戏视觉创作中的潜力[2][3] - a16z合伙人Justine Moore指出,通过提示词创建虚拟世界并与AI驱动的角色互动将带来革命性体验,暗示AI在动态虚拟环境生成中的价值[4] - 视频制作流程涉及Midjourney、Kling 2.1等工具生成图像和视频,并添加HUD元素和音效,技术门槛较低[7][8] 国产AI视频生成模型的竞争 - 即梦3 0在文生图测试中表现优异,支持复杂提示词并实现高质量输出,中英文字体生成效率高[11][12] - 国产视频模型如可灵2 1、即梦视频3 0 Pro和Hailuo 02密集发布,竞争加剧,部分模型已集成AI音效功能[20][21] - 多模型对比测试显示,国产模型在动态场景生成(如市场、海岸驾驶)中具备差异化能力[23][24][25][26] AI对游戏产业的颠覆性影响 - 传统3A游戏开发成本高昂(如《黑神话·悟空》每小时成本1500万-2000万元),AI生成技术可大幅降低制作成本[29] - 谷歌GameNGen等模型实现无引擎动态画面生成,玩家可体验个性化剧情和开放世界,打破预设内容限制[30] - AI工具如Buildbox 4 Alpha降低开发门槛,非专业用户可通过提示词生成游戏资产,可能催生新商业模式[31] 技术挑战与未来展望 - 实时生成需解决算力瓶颈和质量平衡问题,现有模型仅支持简单游戏且存在图像故障[32] - 版权归属和虚拟角色行为规范等法律问题待明确[32] - 行业预测未来5-10年可能出现完全由AI生成的游戏,技术演进方向明确[33]
谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分
机器之心· 2025-06-18 17:34
大语言模型在竞技编程领域的表现评估 核心观点 - 当前前沿大语言模型(如GPT-4、Gemini等)在竞技编程领域与人类大师级选手仍存在显著差距,尤其在复杂算法推理和边界情况分析上表现欠佳 [1][12][18] - 模型的高分更多依赖外部工具和多次尝试(pass@k),而非真实推理能力 [3][17][34] - 在知识密集型和逻辑密集型问题上表现较好,但在观察密集型和分类讨论问题上表现较差 [20][22][24] 模型性能表现 - **整体表现**:表现最好的模型o4-mini-high在中等难度题上pass@1仅为53.5%,高难度题完全无法通过(0%),而人类专家可稳定发挥 [12][15] - **排行榜数据**: - o4-mini-high:中等难度53.5%,简单83.1%,评分2116(前1.5%) [15] - Gemini 2.5 Pro:中等25.4%,简单70.4%,评分1992 [15] - DeepSeek R1:中等9.9%,简单56.3%,评分1442 [15] 不同算法范式表现差异 - **优势领域**: - 知识密集型(线段树、图论等):模型可通过拼接训练数据中的模板解决 [22] - 逻辑密集型(动态规划、二分搜索等):受益于记忆化脚手架代码 [23] - **劣势领域**: - 观察密集型(博弈论、贪心算法等):评分骤降至1500以下,缺乏新颖见解能力 [24] - 分类讨论:所有模型评分低于1500,无法处理边界情况 [25] - 交互式问题:o4-mini-high评分骤降至1500,其他模型表现更差 [26] 失败原因分析 - **主要错误类型**: - 概念性错误:o3-mini比人类多犯34个算法逻辑错误 [28][30] - 实现优势:比人类少犯25个实现逻辑错误,几乎无运行时错误 [30] - 交互问题异常:80%提交被判"空闲时间超限" [31] 工具与多次尝试的影响 - **pass@k效果**:o4-mini-medium评分从pass@1的1793升至pass@10的2334,但仍低于工具加持的2719分 [34][36] - **推理能力效果**: - 组合数学提升最大(DeepSeek R1比V3高1400分) [41] - 知识密集型提升显著(如线段树问题+700分) [42] - 观察密集型提升有限(博弈论提升最低或负增长) [42] 评测基准设计 - **LiveCodeBench Pro**:包含584道来自Codeforces、ICPC等顶级赛事的高质量题目,由奥赛选手标注算法类别 [6][7] - **研究团队**:包含ICPC世界总决赛参赛者等专业背景 [5]
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练
机器之心· 2025-06-18 17:34
核心观点 - 清华大学陈键飞团队提出的SageAttention3实现了5倍于FlashAttention的推理加速,并在多种视频和图像生成大模型中保持端到端精度表现 [2][5] - SageAttention3是首个针对BlackWell架构的全FP4量化即插即用注意力算子,在RTX 5090上达到1040 TOPS速度,比H100上的FlashAttention3快1.65倍 [2] - 该团队还首次提出可训练的8比特注意力(SageBwd)用于大模型训练加速,在微调任务中保持与全精度注意力相同结果 [2] 技术突破 推理加速 - SageAttention系列迭代加速效果:V1(2.1倍)、V2(3倍)、V2++(3.9倍)、V3(5倍) [2] - 在RTX5090上实现HunyuanVideo端到端3倍加速(164s vs 489s),视频质量几乎无损 [5][33] - 算子速度相比FlashAttention2和xformers分别提升5倍和10倍 [22] FP4量化创新 - 采用BlackWell硬件支持的Microscaling FP4量化,选择NVFP4格式(准确率99.52% vs MXFP4的98.37%) [15] - 提出两阶段量化解决P矩阵缩放因子范围狭窄问题,显著提升精度 [15][16] - 算法流程优化实现高效Attention算子,两行代码即可加速任意模型推理 [5] 8比特训练 - 对Q/K/V采用Per-block INT8量化,对P采用无量化Overhead的Per-token量化 [17] - 反向传播中保留dOVT为FP16精度,量化其他四个矩阵乘法 [18] - 在Base Model微调任务中与BF16注意力表现完全一致 [33] 应用效果 - 已应用于多个知名大模型:Vidu、CogvideoX、Mochi、Wan、HunyuanVideo、Flux、Llama3、Qwen等 [1] - 在CogvideoX(2B)上端到端速度从64s提升至27s [33] - 训练加速方面,8比特注意力在微调任务中完全无损,但预训练任务与全精度仍有差距 [34] 硬件适配 - 充分利用BlackWell架构的FP4 Tensor Core,RTX5090速度达FP16 Tensor Core的8倍 [9] - 实现GPU底层CUDA Kernel优化,在算子速度和模型精度上均有显著提升 [21]