Workflow
Large Language Model (LLM)
icon
搜索文档
Transformer作者重磅预言:AI无寒冬,推理革命引爆万亿市场
36氪· 2025-11-14 19:51
AI行业技术范式转移 - Transformer架构共同作者Łukasz Kaiser认为,推理模型正引发AI领域重大的范式转移,这被视为继2017年Transformer之后最重大的突破[3] - 推理模型具备自我反思、动态分配计算资源、调用外部工具及生成并筛选多条推理路径的能力,完全不同于GPT-4这类纯自回归大语言模型[19] - 在绝大多数推理密集型任务中,OpenAI的首个推理模型o1显著优于当时最强的通用模型GPT-4o,尤其在数学、程序分析等结构化任务上效果明显[21][23] AI技术发展瓶颈与核心制约因素 - AI未来一两年极速跃升的瓶颈不在于算法,而在于GPU计算能力与能源供应,这是当前所有实验室面临的根本性制约[1][17] - 推理模型所需训练数据量比传统模型少几个数量级,但对算力的需求巨大,目前缺乏足够的算力支撑其并行开展更多实验[17] - 通用的互联网数据基本上已被使用完,谁也无法轻易获得比这多得多的数据,纯粹的Scaling在经济上已不可行[35] 行业内对AGI发展路径的争论 - 强化学习之父Richard Sutton与图灵奖得主Yann LeCun等专家认为大语言模型已走入死胡同,其改进能力存在极限,且这个极限远比众所周知的要近[11][13] - OpenAI等公司推动的“LLM+数据+GPU+能源”的AGI路径被部分经济学家认为已接近成功,甚至有观点认为2025年4月16日就是AGI日[4][7] - Łukasz Kaiser反驳“LLM是死胡同”的观点,认为推理模型代表着根本性突破,并指出AI能力会持续增强,但短期内物理世界相关领域仍将存在人类不可替代的工作[17][27] 推理模型的技术特点与应用前景 - 推理模型不急于生成响应,而是先进行推理、检索、调用工具等“深度思考”过程,像人类在回答问题前的犹豫,从而能真正“搞定一件事”[23] - 该方法已能真正胜任职场中的某些工作任务,并且能持续工作数小时产出有价值成果,例如在编程领域能理解大型代码库、进行代码审查、发现漏洞甚至安全威胁[28][31] - 代码模型在三个月前还只是辅助工具,但现在却能真正处理复杂代码库,展现出指数级进步[34] 多模态学习与未来研究方向 - 当前多模态训练已取得成功,模型能将音频编码成离散的音频token,图像被分成多个图像块进行编码,并通过预测下一个token来进行训练[40] - 视频训练虽然数据量巨大,但大部分信息对推理帮助有限,AI需要学会“挑重点”,只提取有意义的部分如运动、因果、变化[42] - 语言模型已掌握对抽象世界的建模,最欠缺的是对人类最熟悉的物理世界的理解,填补这个空白是实现实用机器人的关键突破[42] AI行业未来发展趋势预测 - Łukasz Kaiser认为AI冬天不会来临,未来一两年内改进可能非常猛烈,之后世界将翻天覆地[39] - 未来推理模型需要实现“多线并行思考”,例如同时运行多个思维链然后让它们“讨论”并选出最佳答案,GPT-5 Pro已初步实现这一点[39] - 谷歌的Gemini 1.5 Robotics已开始结合推理与视觉,未来机器人将具备“快反应系统”和“慢思考系统”的结合[43][45]
别被骗了,AI Coding可没那么神,22名软件开发者道出了这些弊端
36氪· 2025-11-14 11:23
AI Coding对软件开发行业的影响 - 大语言模型(LLM)驱动的代码生成器和编程助手正在重塑软件开发者的工作方式,AI Coding成为全球科技巨头和初创企业的战略焦点 [1] - 研究显示,LLM将软件开发者的工作效率提高了26% [1] - 约59%的参与者每天与LLM至少交互6次,ChatGPT是最常被使用的工具 [5][6] AI Coding带来的益处 - 在个人层面,LLM能自动生成样板代码、修复语法、提供即时反馈,帮助开发者节省时间、减少中断并保持“心流”状态 [7] - 在团队层面,LLM减少了开发者之间的协作干扰与沟通成本,并能提供“第二意见”以提升整体创造力 [9] - 在组织层面,LLM节约了软件开发公司的时间和成本,特别是对中小型企业而言,能以更少的人力完成更多任务 [9] - 在社会层面,LLM促进了创新创业,降低了创业门槛 [9] AI Coding存在的弊端 - LLM在生成代码或提供建议时容易出现错误或“幻觉”,反而可能拖慢进度,并需要额外时间验证结果 [11] - 过度依赖LLM可能削弱开发者的代码理解力与学习动力,导致开发者变得懒惰、冷漠,甚至对自身能力失去信心 [11] - LLM生成代码可能涉及版权问题或隐藏漏洞,引发安全隐患,部分公司因此明令禁止员工使用 [13] - 频繁调用LLM需要付费,增加了企业的运行负担,且可能使依赖经验和重复性工作的技术岗位面临失业风险 [13] 开发者与LLM的协作模式 - 开发者会在不同LLM之间反复试用,以找到最契合自己工作需求的工具,并认识到LLM是基于统计的工具而非“智能体” [14] - 开发者倾向让LLM参与代码优化而非直接生成,以保持对逻辑与结构的控制,部分开发者出于隐私考虑选择在本地运行模型 [14] - 开发者需要与LLM维持一种成熟的关系:既信任其能力,又保持理性距离,用人机协作的方式扩展自己的边界 [14] - 开发者基于长期经验积累形成的“直觉”在协作中起到“安全阀”作用,帮助识别LLM的错误或误导性建议 [15]
港中文中稿ICCV'25的自驾自适应快慢双系工作统AdaDrive
自动驾驶之心· 2025-11-12 08:04
文章核心观点 - 香港中文大学(深圳)与中山大学等团队提出名为AdaDrive的自适应协作快慢框架,旨在解决大语言模型融入自动驾驶系统时面临的计算开销与实时性平衡难题 [2] - 该框架通过自适应激活损失动态判断LLM调用时机,并引入自适应融合策略连续调节LLM对传统规划器的影响强度,实现按需激活与无缝协作 [2] - 在语言引导的自动驾驶基准测试中,AdaDrive在驾驶准确率与计算效率两方面均达到最先进性能 [3] 背景与挑战 - 早期方法如LMDrive和AD-H采用同步串行架构,LLM与规划器在每个驾驶步骤都参与运作,虽提升智能性但引入巨大内存开销与延迟,使实时部署面临挑战 [4] - 后续异步策略采用固定间隔激活LLM,但无法适应动态变化的驾驶场景,在安全关键场景中LLM可能未被激活,而在简单场景中激活则显得多余 [7] - 理想框架需具备动态决定LLM激活时机以及自适应控制LLM影响程度的能力 [7] AdaDrive算法架构 - 系统采用快慢路径并行运行,轻量级规划器作为快速路径高频处理每帧图像,LLM作为慢速路径低频激活并在关键场景下提供辅助 [13] - 通过Connector-W和Connector-H两个组件实现自适应整合,分别负责决定LLM激活时机和控制其贡献程度 [13][19] - Connector-W通过新颖的自适应激活损失,基于对比LLM辅助与无辅助预测结果的轨迹损失差异,动态学习LLM的最优激活条件 [20] - Connector-H利用预测置信度分数作为动态加权系数,实现LLM贡献的连续缩放,而非二元决策,公式为轨迹预测统一表示 [21][22] 技术创新点 - 提出长短时Q转换器(LS-Qformer),通过分组机制将可学习令牌分为长时组和短时组,同时提取当前帧关键特征并建模时序特征演变 [24] - 引入传播式记忆融合(PMF)机制,在固定大小的流式内存缓冲区中,将待淘汰帧的特征合并到其前一帧,实现信息前向传播并优化内存效率 [28] - 自适应LLM激活机制在训练中通过损失函数自然学习,确保仅当LLM贡献显著(差值超过预设阈值d=0.3)时才激活,以控制计算开销 [20] 实验性能结果 - 在LangAuto基准测试上,AdaDrive在LangAuto-Tiny和LangAuto-Short子任务的驾驶分数分别达到80.9%和70.6%,较排名第二的方法优势分别为12.9%和16.3% [31][32] - 在推理效率方面,自适应快慢系统与流式内存缓冲区设计使AdaDrive的GFLOPs较连续LLM激活降低62%,同时驾驶分数提升5.6% [33][38] - 消融实验表明,单独使用LS-Qformer可使驾驶分数从67.4%提升至71.9%,增加Connector-W后进一步提升至77.9%,最终完整系统达到80.9% [34][35] - LS-Qformer(20+20令牌)在驾驶分数上优于标准Qformer(75.8%)、SeqQ-Former(77.6%)等变体,达到80.9% [35]
扩散不死,BERT永生,Karpathy凌晨反思:自回归时代该终结了?
36氪· 2025-11-05 12:44
文章核心观点 - 基于RoBERTa的掩码语言模型可通过引入动态掩码率改造为文本扩散模型,实现从表示学习到文本生成的转变 [1][13][26] - 实验证明改造后的RoBERTa Diffusion能生成视觉连贯的文本,表明BERT系模型本质上是固定掩码率训练的文本扩散模型 [21][24][26] - 文本扩散模型采用在整个Token画布上迭代重采样的双向注意力机制,与自回归模型的单向生成机制形成对比 [27][28] 技术原理与实验 - 文本扩散通过在前向过程逐步添加<MASK>噪声,在反向过程训练模型迭代去噪,将掩码语言建模目标扩展为生成过程 [11][13] - 实验使用10个扩散步骤,每个训练批次随机采样从1.0到0.1的掩码比例,推理时从240个<MASK>开始逐步减少掩码比例 [17][18] - 在H200显卡上训练30分钟后,模型基于256长度提示词生成了连贯文本,尽管存在数据集格式化导致的异常 [21][22] 行业影响与前景 - 该方法表明生成领域仍存在优化创新空间,结合AR-Diffusion等技术可进一步提升生成质量与推理速度 [25][28] - 谷歌DeepMind已发布实验性Gemini Diffusion模型,业界认为扩散语言模型在速度上有优势且是下一代AI发展方向 [30] - 扩散模型采用双向注意力机制迭代更新整个Token画布,与自回归模型的单向追加机制形成技术路径差异 [28]
SK hynix Presents Next Generation NAND Storage Product Strategy at OCP 2025
Prnewswire· 2025-10-27 07:46
公司战略发布 - 公司在2025年OCP全球峰会上公布了下一代NAND存储产品战略 [1] - 为满足AI推理市场快速增长的需求,公司正式推出针对AI时代优化的“AIN (AI-NAND) Family”系列解决方案产品 [2] AIN产品系列详情 - AIN系列包含分别针对性能、带宽和密度优化的NAND解决方案产品,旨在提升数据处理速度和存储容量 [3] - AIN P (性能型) 旨在高效处理大规模AI推理工作负载下产生的大容量数据,通过最小化存储与AI操作间的瓶颈来显著提升处理速度和能效,计划于2026年底发布样品 [3] - AIN D (密度型) 是一种高密度解决方案,旨在以低功耗和低成本存储大量AI数据,目标是将密度从当前QLC SSD的TB级别提升至PB级别,实现SSD的速度和HDD的成本效益 [4] - AIN B (带宽型) 是公司利用HBF™技术的解决方案,通过垂直堆叠多个NAND来扩展带宽 [5] HBF技术发展 - HBF技术类似于堆叠DRAM芯片的HBM,是通过垂直堆叠多个NAND闪存制成的产品 [6] - 公司凭借全球顶级的HBM研发和生产能力,早期即开始研究AIN B,以解决AI推理扩展和LLM规模扩大带来的内存容量差距问题,关键是将HBM的堆叠结构与高密度、成本效益高的NAND闪存相结合 [6] - 公司正考虑将AIN B与HBM放置在一起以增强整体系统容量等多种策略 [6] 生态系统合作 - 公司与Sandisk在8月签署HBF标准化谅解备忘录后,联合举办了“HBF Night”以扩展技术生态系统 [7] - 活动吸引了众多行业架构师和工程师参与,并提出了跨行业合作以加速NAND存储产品创新的提议 [8][9] - 公司表示将通过紧密的客户与合作,成为下一代NAND存储市场的关键参与者 [9]
1000 行 Java 代码手搓 OpenAI gpt-oss 推理引擎
AI前线· 2025-10-24 12:07
模型发布与项目背景 - OpenAI于2025年8月发布了开源模型gpt-oss,提供120b和20b两个推理模型版本[3] - 该项目使用约1000行Java代码实现了一个可在CPU上运行的高性能gpt-oss推理引擎,并发布在亚马逊官方GitHub上[3] 模型架构设计 - 模型采用decode-only MoE架构,使用RoPE位置编码和RMSNorm归一化[5] - 注意力层使用Grouped Query Attention,结合Sliding Window Attention和full context交替计算以降低复杂度[5] - MLP FFN层采用MoE架构,20b模型共24层,每层含32个专家,每次前向传播仅激活4个专家[5] - 模型参数采用mxfp4量化,20b模型文件大小仅约13GB,可在单卡16GB GPU上运行[5] 技术实现关键模块 - 代码结构参照PyTorch的model.py设计,包括模型加载、基础算子、注意力块、MLP块和采样等模块[10][15] - 实现原生gpt-oss model.safetensors格式的模型加载[15] - 基础算子包括矩阵运算、RMSNorm和softmax等[15] - 注意力块实现QKV计算、GQA注意力计算及RoPE位置编码[15] - MLP块实现专家路由、SwiGLU激活函数和MLP投影[15] MXFP4量化计算优化 - 模型文件采用mxfp4量化MLP层参数,使用u8类型做块级缩放参数,其余参数采用bf16[12] - 利用Java Project Panama的Vector API实现CPU指令级并行,通过查表转换和FMA指令加速计算[17][19] - 结合多线程并行大幅加速计算过程[19] 性能优化策略 - 通过矩阵转置提高CPU缓存空间局部性,实现26倍性能提升[26] - 利用SIMD向量化指令和4倍循环展开,达到77倍加速[26] - 采用多核并行计算,实现785倍性能提升[26] - 使用分块计算优化CPU缓存命中率,最终达到942倍加速,占物理机实际算力的42%[26] 系统级优化技术 - 关键计算环节如GQA缩放点积和MLP层的4个专家执行均实现并行化[28] - 采用Java Foreign Memory API通过内存映射方式加载MLP权重,仅需16GB内存即可运行模型[29] - 减少内存拷贝,直接加载内存映射段到CPU向量寄存器,避免JVM中间内存分配[30] - 实现算子合并减少计算量和迭代次数,并采用KV缓存优化内存占用[31][32] 性能表现对比 - 在MacOS Apple M3 Pro上实现解码速度8.7 tokens/秒,预填充速度11.8 tokens/秒[33] - 在AWS EC2 m5.4xlarge实例上实现解码速度6.8 tokens/秒,预填充速度10 tokens/秒[34] - 性能显著高于PyTorch原始的0.04 tokens/秒和Huggingface transformers的约3.4 tokens/秒[34] Java在AI推理中的潜力 - Java通过Project Panama等特性不断缩小与底层语言在计算效率上的差距[38] - 项目证明经过适当优化,Java可实现接近O3优化程序95%的性能[38] - Java在性能方面的持续进步使其在AI推理领域具有应用潜力[38]
SecureLend Targets Community Banks With AI Lending Platform
Crowdfund Insider· 2025-10-21 03:55
公司产品发布 - SecureLend本周宣布其人工智能驱动的贷款平台正式商业发布[1] - 该平台旨在使社区银行、保理公司和替代性贷款机构的贷款发放速度提高高达10倍,成本效率提升60%[1] - 该公司是首家引入大型语言模型无关架构的金融科技公司,允许机构在OpenAI、Anthropic、Google Gemini、DeepSeek等模型之间切换,消除了供应商锁定[1] 行业背景与挑战 - 社区银行面临来自数字优先竞争对手日益增长的压力,其银行业资产份额在过去几十年中已减半[2] - 在关键领域如小企业贷款中,数字挑战者现在每年捕获30%至50%的新业务[2] - 如果没有现代化,社区银行每年的损失可能达到两位数百分比的下滑[2] 产品技术细节与效益 - 根据房地美的一项研究,手动抵押贷款发放成本约为每笔贷款11,600美元,主要由文件验证和承保驱动[3] - SecureLend端到端自动化这些工作流程,从人工智能驱动的借款人沟通到信用备忘录生成,从而降低成本和加速处理[3] - 平台允许银行混合搭配最佳模型,例如Claude用于分析、GPT-4用于沟通、DeepSeek用于批量任务,全部通过一个编排层实现[4] 公司创始人背景 - SecureLend由Pfuetze创立,其此前曾为Tower Community Bank、Thread Bank和Broadriver Asset Management发起资产[3] - Pfuetze在金融科技领域拥有十年经验,始于其2011年基于QR码的支付初创公司PAYMEY[3]
手撕大模型,KVCache 原理及代码解析
自动驾驶之心· 2025-10-20 14:30
KV Cache技术概述 - KV Cache是大型语言模型推理过程中的关键技术,通过缓存中间计算结果显著提升模型运行效率[1] - 该技术专门针对Transformer自回归推理场景,在文本生成等任务中发挥重要作用[1] KV Cache的工作原理 - 核心思想是缓存历史计算中的键(Key)和值(Value)矩阵,避免重复计算[4] - 生成新token时只需计算新的Q矩阵并与历史KV矩阵进行注意力计算[4][7] - 将时间复杂度从O(n²)降低到O(n),极大提升长序列生成效率[4][7] - 首次生成时计算并缓存所有输入token的K和V矩阵,后续生成只需计算新token的查询矩阵[7] KV Cache的技术实现细节 - 为每个注意力头维护独立缓存,结构为[batch_size, num_heads, seq_len, head_dim][11] - 缓存会随着生成过程动态增长,直到达到模型最大序列长度限制[11] - 采用滑动窗口机制处理超长序列,如Llama 2只保留最近N个token的KV缓存以控制内存占用[12] - 需要权衡最大缓存长度、批量大小和精度选择等参数[15] 内存与性能权衡 - KV Cache提升速度但需要额外内存存储缓存数据[11] - 以GPT-3 175B模型为例,每个token的KV缓存约占用20KB内存[12] - 生成1000个token时单个样本需要约20MB内存,批量处理时内存消耗线性增加[12] 代码实现机制 - 通过维护cache_k和cache_v变量实现历史KV值的存储和更新[14] - 使用缓存时会将新计算的K、V与历史缓存进行拼接[14] - 提供reset_cache方法用于新序列生成时重置缓存状态[14] 优化策略 - 分页KV Cache借鉴内存分页机制,将连续缓存分割成固定大小块提高内存利用率[22] - 动态缓存管理根据输入序列长度动态调整缓存大小[22] - 量化缓存使用INT8或INT4等低精度格式存储,大幅减少内存占用[22] - 选择性缓存对不重要层或注意力头不进行缓存,平衡速度和内存[22]
100美元、仅8000行代码,复现ChatGPT,Karpathy:这是我写过的最疯狂的项目
Founder Park· 2025-10-14 12:18
项目概览 - 特斯拉前AI总监、OpenAI创始成员Andrej Karpathy发布全新开源项目“nanochat”,这是一个极简但完整的“从零构建ChatGPT”训练框架 [3] - 该项目被描述为LLM101n的“压轴之作”,并可能成为未来研究基线和开源社区的实验平台 [8][16] - 项目核心理念是降低LLM研究与复现门槛,让每个人都能亲手训练自己的模型,延续了其在nanoGPT时期倡导的民主化路线 [12][22] 技术规格与成本效益 - 整个系统仅需约8000行干净代码,在一台GPU机器上运行约4小时后,即可通过网页界面与训练的“小ChatGPT”对话 [7][25][26] - 项目全程花费低至约100美元,可训练出一个能创作故事/诗歌、回答简单问题的小型ChatGPT [10][13] - 训练约12小时即可超过GPT-2的核心指标,将预算扩展到约1000美元(训练约41.6小时)后,模型能解决简单的数学/代码问题并做多项选择题 [10][11][13] 功能与性能 - nanochat涵盖从数据准备、预训练、中期训练(对话、多项选择题、工具使用)、SFT、RL微调到推理部署的全流程 [6] - 训练24小时的模型(FLOPs大致相当于GPT-3 Small 125M,约为GPT-3的1/1000)在MMLU上得分进入40分段,在ARC-Easy上进入70分段,在GSM8K上进入20分段 [11] - 项目实现了高效的推理引擎,带有KV缓存,支持简单的预填充/解码,工具使用(如Python解释器),并可通过CLI或类ChatGPT的网页界面交互 [12] 项目定位与影响 - nanochat被视为“LLM生态系统微缩版”,与nanoGPT构成“从神经网络基础到产品级对话系统”的两步闭环 [17][18][19][20] - 项目在放出不到12小时内,GitHub星标就突破4.2k,显示出开源社区的高度关注 [4][6] - Karpathy的目标是将完整的“强基线”技术栈整合到一个连贯、极简、可读、可修改、可最大化派生的代码仓库中 [14]
100美元、8000行代码手搓ChatGPT,Karpathy最新开源项目爆火,一夜近5k star
36氪· 2025-10-14 10:25
项目概述 - AI领域专家Andrej Karpathy发布名为nanochat的开源项目,旨在以极低成本实现ChatGPT克隆版 [1][2] - 项目包含从零开始构建大模型的完整流程,代码约8000行,发布12小时内GitHub星标数超过4500 [2] - 目标是将一整套“强势基线”能力打包进结构统一、可读性强、易于修改的代码库中 [5] 技术功能与流程 - 实现训练分词器、在FineWeb数据集上预训练Transformer LLM、SFT微调及可选GRPO强化训练 [3] - 包含高效推理引擎,支持KV Cache、prefill/decode推理、工具调用,可通过CLI或WebUI交互 [3] - 自动生成Markdown评分报告卡,总结与游戏化展示整个训练过程 [3] 成本与性能表现 - 约100美元成本(8×H100 GPU训练4小时)即可训练出具备聊天功能的迷你模型,能写故事/诗歌、回答简单问题 [3] - 训练约12小时模型性能可超过GPT-2的CORE指标 [3] - 预算扩展至1000美元(训练41.6小时),模型在MMLU得分40+、ARC-Easy得分70+、GSM8K得分20+ [4] 项目定位与社区影响 - nanochat是LLM101n课程的压轴项目,有潜力像nanoGPT一样成长为研究平台或标准基准 [5] - 项目框架已成型,适合社区协同迭代改进每个模块 [5] 应用场景与局限性 - 专家认为该微型模型类似年幼孩子,不适合直接用于个性化数据微调,否则效果不佳 [9][10] - 实现有效的个性化模型需复杂步骤,包括大量合成数据生成和重写,目前仍偏重科研 [10]