Workflow
FlashAttention
icon
搜索文档
AI 编程冲击来袭,程序员怎么办?IDEA研究院张磊:底层系统能力才是护城河
AI前线· 2025-07-13 12:12
多模态智能体的新时代 - 实现智能体"看懂、想透、做好"需整合视觉、语言推理与物理执行能力,是多模态过程的核心挑战 [2] - 视觉理解因输入维度高(如连续视频流)、三维结构建模复杂且需结合交互知识,成为技术突破难点 [3] - 生成模型依赖理解模型评估质量,理解与生成深度耦合,强化学习中的reward model本质是理解能力体现 [4] - 空间智能对机器人操作至关重要,当前VLA模型因缺乏物体精确定位,操作成功率远未达实用水平 [5] - 视觉领域三维表示方法未统一,斯坦福主张采用三维内部表示以提升模型预测能力 [7] 技术落地路径 - 制造业"AI+机器人"落地需平衡通用性与精准度,汽车生产线上下料等半结构化场景是可行突破口 [7] - 危险操作场景优先落地,通过遥操作结合智能逐步迭代,家庭等开放环境需5年以上技术积累 [8] - 从结构化到半结构化场景过渡(如产线灵活操作)是机器人技术渐进式商业化关键路径 [8] 工业界研究策略 - 工业界研究需构建"研究价值-应用价值"坐标系,右上角(双高价值)为理想目标,避免纯论文导向 [11] - 目标检测等基础问题仍有突破空间,需坚持解决实际难题而非追逐热点 [12] - 产品与研究节奏差异显著,研究人员需开放探索空间,管理者应协调两种模式避免强制同步 [13] - OpenAI案例显示技术成熟后需转向工程化集中攻关,但研究支撑仍是底层基础 [14] 人才能力建设 - 计算机基础能力(如分布式系统、GPU架构)比大模型调参经验更关键,系统级优化能带来2-3倍效率提升 [16][17] - 年轻从业者应专注底层能力(代码、并行计算),避免成为"调参侠",系统理解力是团队稀缺资源 [17][18] - 计算机专业仍具长期价值,AI冲击的是基础编码岗位,需通过AI协作提升编程深度与不可替代性 [19]
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练
机器之心· 2025-06-18 17:34
核心观点 - 清华大学陈键飞团队提出的SageAttention3实现了5倍于FlashAttention的推理加速,并在多种视频和图像生成大模型中保持端到端精度表现 [2][5] - SageAttention3是首个针对BlackWell架构的全FP4量化即插即用注意力算子,在RTX 5090上达到1040 TOPS速度,比H100上的FlashAttention3快1.65倍 [2] - 该团队还首次提出可训练的8比特注意力(SageBwd)用于大模型训练加速,在微调任务中保持与全精度注意力相同结果 [2] 技术突破 推理加速 - SageAttention系列迭代加速效果:V1(2.1倍)、V2(3倍)、V2++(3.9倍)、V3(5倍) [2] - 在RTX5090上实现HunyuanVideo端到端3倍加速(164s vs 489s),视频质量几乎无损 [5][33] - 算子速度相比FlashAttention2和xformers分别提升5倍和10倍 [22] FP4量化创新 - 采用BlackWell硬件支持的Microscaling FP4量化,选择NVFP4格式(准确率99.52% vs MXFP4的98.37%) [15] - 提出两阶段量化解决P矩阵缩放因子范围狭窄问题,显著提升精度 [15][16] - 算法流程优化实现高效Attention算子,两行代码即可加速任意模型推理 [5] 8比特训练 - 对Q/K/V采用Per-block INT8量化,对P采用无量化Overhead的Per-token量化 [17] - 反向传播中保留dOVT为FP16精度,量化其他四个矩阵乘法 [18] - 在Base Model微调任务中与BF16注意力表现完全一致 [33] 应用效果 - 已应用于多个知名大模型:Vidu、CogvideoX、Mochi、Wan、HunyuanVideo、Flux、Llama3、Qwen等 [1] - 在CogvideoX(2B)上端到端速度从64s提升至27s [33] - 训练加速方面,8比特注意力在微调任务中完全无损,但预训练任务与全精度仍有差距 [34] 硬件适配 - 充分利用BlackWell架构的FP4 Tensor Core,RTX5090速度达FP16 Tensor Core的8倍 [9] - 实现GPU底层CUDA Kernel优化,在算子速度和模型精度上均有显著提升 [21]
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
量子位· 2025-06-01 11:40
核心观点 - 提出两种新型注意力机制GTA和GLA,在保持模型性能不变的情况下,解码速度和吞吐量最高提升2倍,显著优化长上下文推理能力[1][2][5] - GTA是GQA的有效替代品,KV缓存用量减少约50%[2][3][25] - GLA是MLA的实用替代品,解码速度更快,某些情况下比FlashMLA快2倍[2][3][29] 注意力机制优化 - 针对推理阶段的内存冗余、计算低效、长上下文瓶颈等问题重新设计注意力机制[8] - GTA通过参数绑定实现更彻底的KV重复利用,减少内存传输次数[15][16] - GLA采用双层结构,提高硬件效率并保持并行可扩展性[17][18] 实验验证 - 在四种规模模型(183M-1471M)上测试,GTA在中大型模型上优于GQA,GLA与MLA质量相当[21][22] - GTA相比GQA减少约50%的KV缓存,验证参数绑定+分组重用的有效性[25][26] - GLA在序列长度从1K增加到64K时,解码速度比FlashMLA快2倍[29] - 在DeepSeek Coder V2 Base模型上,GLA-8在长上下文处理中吞吐量明显高于MLA[33] 作者背景 - 三位作者均来自普林斯顿大学,Tri Dao因提出Mamba架构和FlashAttention系列工作闻名学界[38][44][46][47] - Tri Dao是生成式AI初创公司Together AI的首席科学家[44] - 其他作者Ted Zadouri和Hubert Strauss在机器学习和Transformer优化方面有丰富经验[39][40][41][42][43]
陶哲轩DeepMind梦幻联动,最强通用科学Agent来了!一口气解决芯片设计、矩阵乘法和300年几何难题
量子位· 2025-05-15 09:25
AlphaEvolve技术突破 - 谷歌DeepMind推出通用科学人工智能AlphaEvolve 由陶哲轩等顶尖科学家参与开发 具备算法发现与优化能力 [1][14] - 在矩阵乘法算法优化中实现23%加速 使Gemini训练时间缩短1% FlashAttention提速32.5% [2][26] - 解决300年未解的"接吻数"几何问题 在11维空间发现593个外球体结构 刷新数学界记录 [4][8][10] 系统架构与运行机制 - 采用LLM驱动的三模块架构:大模型生成算法方案 自动评估器验证效果 进化框架迭代优化 [15] - 集成Gemini Flash和Gemini Pro双模型 分别负责探索广度和分析深度 [17] - 通过极简代码框架设计梯度优化程序 发现4x4复值矩阵乘法的48次标量乘法新算法 [27][28] 实际应用成效 - 部署至谷歌计算生态系统 平均持续恢复0.7%全球计算资源 提升数据中心调度效率 [19][22] - 优化TPU芯片设计 删除矩阵乘法电路冗余位 通过严格功能验证 [24][25] - 在数学领域测试50多个未解决问题 75%案例重现最优解 20%案例改进现有方案 [30][31] 未来发展前景 - 已开放早期邀请测试 面向学术圈外用户 提供友好交互界面 [13][35] - 团队计划持续汇报进展 潜在应用扩展至材料科学 药物发现等领域 [11][36][37] - 基于FunSearch研究成果 证明大模型可生成代码函数解决通用算法问题 [33]
大模型 “注意力简史”:与两位 AI 研究者从 DeepSeek、Kimi 最新改进聊起
晚点LatePost· 2025-03-02 14:10
大模型注意力机制改进 - 近期DeepSeek和Kimi分别推出NSA和MoBA架构,聚焦改进大模型核心机制"注意力机制",旨在提升长文本处理能力[4] - 注意力机制优化需解决两大瓶颈:显存开销随序列长度线性增长、计算复杂度呈平方级增长[16] - 稀疏注意力成为主流改进方向,通过仅保留关键连接提升效率,数学上Softmax机制天然支持稀疏性[16] 技术实现路径 - NSA采用硬件协同设计,在Block级别进行稀疏计算,利用Triton框架优化GPU并行效率,实现11.6倍解码加速[24][31] - MoBA创新性地在预训练阶段引入稀疏性,通过混合分块注意力保留远距离关键信息,效果超越稠密注意力[20][37] - 两种方案均采用动态稀疏机制,结合内容相关性动态选择关注区域,平衡效率与效果[38] 性能验证 - NSA在270亿参数模型训练中,损失曲线与稠密注意力趋同,推理任务表现更优[42][46] - MoBA在Llama-8B模型测试中,GSM8K数学推理得分达0.7278,优于稠密模型的0.7142[49] - 长文本专项测试显示,32K输入下末端1K词元预测损失显著降低[43] 行业应用前景 - 多模态发展将大幅增加输入长度,1小时视频相当于100万token,需开发跨模态注意力模式[55] - 长思维链生成成为RL训练关键,DeepSeek-R1显示输出长度随训练步数持续增长[26][28] - 科研场景被视为AGI重要突破口,需存储数月研究过程数据并支持复杂推理[59][62] 硬件与算法协同 - GPU显存发展滞后算力增长,B200显存仅为A100的1.2倍,迫使算法层压缩存储需求[53] - 系统层优化如FlashAttention使显存占用降低量级,算子级优化成为效率突破关键[20][35] - 未来可能结合RNN固定存储优势与注意力机制,探索存储复杂度新平衡点[53]