Workflow
AI前线
icon
搜索文档
a16z将3000万开发者标价3万亿,等于法国GDP!网友:几个初创公司+大模型就想取代我们,疯了吧?
AI前线· 2025-11-01 13:33
当顶级风投 a16z 的合伙人面带微笑地算出这笔"人力资产化"的账——把全球开发者群体的价值量化为 3 万亿美元,并与法国 GDP 划上 等号时,他描绘的是一幅由 AI 编程颠覆生产关系、释放巨量价值的资本盛景。 他在访谈中兴奋阐述:" 全世界约有 3000 万名开发者,假设每位创造 10 万美元价值……合计约 3 万亿美元,相当于法国的 GDP ",还 进一步强调,这个量级"也大致相当于几家正在重塑 AI 软件开发生态的初创企业再加上他们使用的基座大模型的价值总和。" 他还有一整套关于"软件颠覆软件"的激进判断:任何重点大学的传统 CS 课程或将成为"过往时代的遗留";LLM 能写 COBOL、Fortran、 CUDA 内核,甚至"有了智能体,哪怕完全不懂 CUDA 的开发者也可以对这类代码进行审查和改进";还有一个可能让开发者背脊一凉的趋 势:软件开发能力从"人工薪酬"转为持续消耗 Token 的"基础设施成本"。 不过需要提醒的是:a16z 本质上是一家投资公司,其表述更多代表资本方视角。当人类创造力被直接折算为宏观 GDP 的财务口径时,难 免引发质疑与反讽。对此,有网友评论道:"开场就把行业从业者 ...
智源悟界·Emu3.5发布,开启“下一个状态预测”!王仲远:或开启第三个 Scaling 范式
AI前线· 2025-11-01 13:33
2024 年 10 月,智源研究院发布了全球首个原生多模态世界模型悟界·Emu3,该模型只基于下一个 token 预测,无需扩散模型或组合方法,实现图像、 文本、视频的大一统。模型一经上线便在技术社区引发了热议。 一年后,智源发布悟界·Emu3.5,在"Next-Token Prediction"范式的基础上,模拟人类自然学习方式,以自回归架构实现了对多模态序列的"Next-State Prediction (NSP)",获得了可泛化的世界建模能力。 智源研究院院长王仲远表示,世界模型的核心是预测下一个时空状态,这种预测对具身智能至关重要,且不局限于视频或图像形式。他解释道,人类面 对真实世界场景时,会形成多模态理解(如看到靠边的咖啡会预判掉落风险),机器人执行相关操作(如抓取咖啡)时,需要精准把控力度、方向等细 节。 Emu3.5 在各方面能力上实现了全面提升。它具备三大特点:一是从意图到规划,模型能够理解高层级的人类意图(如"如何制作一艘宇宙飞船""如何做 咖啡拉花"),并自主生成详细、连贯的多步骤行动路径;二是动态世界模拟,模型在统一框架内无缝融合了对世界的理解、规划与模拟,能够预测物理 动态、时空演化 ...
视觉生成的另一条路:Infinity 自回归架构的原理与实践
AI前线· 2025-10-31 13:42
视觉自回归模型的技术原理与优势 - 视觉自回归模型采用“由粗到细”的多尺度生成思路,从低分辨率开始逐级放大补全细节,更贴近图像物理属性和人类感知直觉 [12] - 模型通过金字塔式层级结构的改进版VQ-VAE将图像编码为一系列逐级放大的特征残差,残差设计使每级只需补全上级未刻画信息 [15] - 专用Transformer架构支持并行预测整片token,将迭代次数压缩至传统逐点方式的十分之一,显著提升效率 [15] Infinity框架的核心技术创新 - 放弃传统VQ码本改用符号量化技术,对特征激活按正负号压成±1形成1-bit表示,词表大小随通道数指数增长至2^32 [31] - 采用逐位预测机制将token拆分为逐通道二元分类,参数量从100B降至可接受范围,并对微小扰动具有天然鲁棒性 [33] - 引入位级自校正技术,在训练和推理阶段量化回传预测结果,使网络学会纠正前一步错误,显著抑制误差累积 [35] 性能表现与缩放定律验证 - 在ImageNet基准测试中VAR模型首次在生成质量上超越DiT,FID指标达到1.73(VAR-d30-re模型)[18][20] - 模型展现出清晰稳健的缩放曲线,性能随参数增加按幂律提升,2B参数Infinity在1024×1024分辨率下仅需0.8秒生成速度 [18][46] - 大模型在大词表配置下表现更优,当参数规模扩大时2^32词表性能反超2^16词表,验证缩放定律可靠性 [41] 与扩散模型的技术对比 - 扩散模型在单一分辨率上逐步去噪,训练推理步数开销大但误差可被后续步骤修正 [21][27] - 视觉自回归训练并行度高,所有尺度可一次输入网络,不像DiT需按时间步拆分多次前向计算 [27] - Infinity方案在1024×1024分辨率实现与DiT可比的FID指标,支持任意长宽比且推理速度比同量级DiT快3.7倍 [37][46] 行业应用前景 - 视觉自回归路线已从类别生成扩展至通用文本到图像生成,在高分辨率任务中具备与扩散模型正面竞争的能力 [49] - 后训练阶段采用DPO对齐技术可进一步提升画质和细节,表明对齐工作同样适用于VAR框架 [44] - 该技术路线在视频生成领域同样保持明显优势,为多模态AI应用提供新路径 [46]
4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?
AI前线· 2025-10-31 13:42
比 Sonnet 4.5 快 13 倍, 编码性能近 SOTA "开发者不应在'思考速度快'与'思考质量高'的人工智能之间做选择。"Cognition 在官方声明中表示, 这一理念是 SWE-1.5 的设计基础。 据介绍,SWE-1.5 经过专门设计,是一款拥有数千亿参数的前沿规模模型,旨在打破上述权衡困境 的同时提供顶尖性能与一流速度。而该模型最显著的特点是其原始速度,这一优势源于与推理领域专 业机构 Cerebras 的深度合作:共同部署并优化 SWE-1.5。具体举措包括训练一个经过优化的草稿模 型以实现更快的投机解码以及构建定制化请求优先级系统,让端到端智能体交互过程更流畅。 Cognition 表示,此次合作让 SWE-1.5 实现了极佳的延迟表现,并"还树立了新的速度标准",使其处 理速度最高可达 950 token / 秒,分别是 Haiku 4.5 模型的 6 倍、Sonnet 4.5 模型的 13 倍。"这一性 整理 | 华卫 近日,开发出 Devin 智能体的知名人工智能公司 Cognition 推出其全新高速 AI 编码模型 SWE-1.5。 据介绍,该模型专为在软件工程任务中实现高性能 ...
从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!
AI前线· 2025-10-30 15:23
整理|冬梅 当大多数公司仍在摸索如何让开发人员有效使用 AI 编程工具时,金融科技公司 Block 已在 8 周内将 AI 智能体部署给全体员工,覆盖规模达 1.2 万人。 Block 是由美国知名互联网企业家、Twitter 联创 Jack Dorsey 与合伙人于 2009 年创立的金融科技公 司,当时公司名为 Square, Inc。 该公司初期的核心产品是 Square 支付设备——一个可插入手机、将手机变为刷卡终端的方形读卡 器。该产品诞生于 Dorsey 与合伙人 Jim McKelvey 在圣路易斯的一个小办公室中,为了解决小商户 无法接受信用卡的问题而设计。 随着业务不断扩展,公司于 2015 年在纽约证券交易所上市。2021 年 12 月 10 日,公司正式将名称 由 Square, Inc. 更名为 Block, Inc.,以体现其从支付服务扩展至更广泛金融与区块链生态的战略意 图。至 2024 年,Block 在美国已服务约 5,700 万用户、约 400 万商户。 在 AI 与自动化方面,Block 在 2025 年初推出了一个名为 "Goose" 的开源 AI Agent 框架。Go ...
模力工场 017 周 AI 应用榜: 从营销工具到情感共鸣,最“温柔”AI 应用榜单来袭
AI前线· 2025-10-30 15:23
模力工场秋季赛进行中,本周榜单如下,恭喜各位上榜的同学!完整榜单见模力工场网页端或小程 序端秋季赛区域。 模力工场新鲜事 模力工场 X 极客时间八周年直播,邀请掘金社区创始人阴明、极客邦 AI 工程中心产品总监、模力工 场上榜应用 DeepPath 时踪开发者王泰、智能投标助手开发者郝富华在直播间进行一场围绕"程序员 如何成为 AI 时代超级个体"的圆桌讨论。 模力工场秋季赛合伙人火热招募中!正在联合多方资源,共同打造开发者与用户的盛大嘉年华。我 们也在持续征集更多类型的奖品,诚邀各界合作伙伴加入! 讨论认为,AI 工具正在重塑开发方式,让工程师从单一角色走向"全栈 AI 工程师",技术红利的同时也带 来结构性焦虑:一部分人因 AI 实现能力跃迁,另一部分人则被技术迭代边缘化。 在大家看来,AI 时代的来临,导致的并非程序员"岗位消失",而是"能力再造"。如同媒体行业的转折 期,个体创作者崛起反而催生了新的需求与生态。面对这场变革,最核心的竞争力不再是掌握某项技 能,而是持续学习、精准提问与多角色协作的能力——能在产品、设计、运营与开发之间灵活切换,才 有机会成为 AI 时代的"超级个体"。 直播回放: ht ...
谷歌推出 LLM-Evalkit,为提示词工程带来秩序与可衡量性
AI前线· 2025-10-29 08:44
谷歌推出LLM-Evalkit工具 - 谷歌推出开源框架LLM-Evalkit,旨在通过Vertex AI SDK使大语言模型的提示词工程变得有序且可衡量,以统一的数据驱动工作流替代分散文档和基于猜测的迭代方式[2] - 该工具将实验、提示词保存和结果评估整合到一个连贯环境中,支持创建、测试、版本控制和并排比较提示词,帮助团队通过共享记录清晰跟踪提示词性能改进,摆脱对模糊记忆或电子表格的依赖[2] - 工具核心理念是停止猜测并进行精准衡量,用户可定义具体任务、构建代表性数据集,并利用客观指标评估输出,使改进可量化,将直觉判断转变为有据可依的实证分析[2] 工具集成与设计理念 - LLM-Evalkit与现有谷歌云工作流无缝集成,基于Vertex AI SDK构建并与谷歌专业评估工具紧密相连,在实验与性能跟踪间建立结构化反馈循环,使团队能便捷运行测试、精确比较输出并为所有提示词迭代维护统一真实数据源[3] - 框架设计体现包容性理念,提供无代码界面以降低操作门槛,使开发人员、数据科学家、产品经理和用户体验作家等广泛专业人士都能轻松使用,促进技术与非技术团队成员间的快速迭代和紧密协作,将提示词设计变为跨学科工作[3] 市场反响与获取方式 - 项目开发者Michael Santoro在LinkedIn上宣布了这一开源框架,旨在为在谷歌云上使用大语言模型的团队简化提示词工程流程[4][5] - 该领域从业者对此表示广泛关注,有用户评论指出其解决了缺乏集中化系统跟踪提示词的问题,尤其是在模型不断升级时更为突出[6] - LLM-Evalkit已在GitHub上作为开源项目发布,与Vertex AI深度集成,谷歌云控制台提供详细教程,新用户可利用谷歌提供的300美元试用积分进行探索[6]
黄仁勋凌晨炸场:6G、量子计算、物理AI、机器人、自动驾驶全来了!AI芯片营收已达3.5万亿|2025GTC超全指南
AI前线· 2025-10-29 08:40
作 者 | 木子 高 允毅 编辑 | 赵钰莹 在今年3月的春季GTC大会上,老黄曾秀出 最强AI芯片 GB300 NVL72 ,其中 "G" 是该芯片中的CPU架构 Grace , "B" 是GPU架构 Blackwell ,也是 英伟达现在主推的数据中心GPU架构。 本周可谓 美国科技行业的"超级周" ,而号称 "AI风向标" 的 英伟达GTC (GPU Technology Conference,GPU技术大会)也于美东时间10月27日 开 幕 。 10月28日,黄仁勋依旧身着皮衣登场。 但与以往有明确重点的发布会不同 ,老黄此次演讲 几乎把全球科技圈的热词悉数点了一遍:6G、量子计算、 物理AI、机器人、自动驾驶、核聚变... 一个没落下。 他还官宣了一个 跨次元般的 重磅消息 : 英伟达和 诺基亚 合作了,用AI提高无线通信的速度,共同建造面向AI原生的移动网络,搭建6G AI平台;为此,英伟达推出新品 NVIDIA Arc(Aerial Radio Network Computer) ,还将对诺基亚投资10亿美元(约合人民71亿元)。 值得一提的是,老黄这次(可能下次血本了)不仅演讲话题涉猎甚广,还 ...
如何为 GPU 提供充足存储:AI 训练中的存储性能与扩展性
AI前线· 2025-10-28 17:02
作者 | 莫飞虎 策划 |Tina 在 AI 训练中,业界往往将关注点集中在计算资源上,但如果存储性能不足,GPU 无法被充分利用, 计算效率将会大幅受限。因此,存储系统的性能对于提升整体训练效率至关重要。 本文旨在通过分 析最新的 MLPerf Storage v2.0 测试结果,探讨不同存储系统在大规模 AI 训练中的表现,并帮助读 者理解如何根据实际需求选择合适的存储方案 。 MLPerf Storage 基准测试作为业界权威评测体系,专门用于还原真实 AI 训练负载,以全面检验存储 系统在不同场景下的表现。 8 月 5 日,全球 AI 工程联盟 MLCommons 发布了最新的 MLPerf® Storage v2.0 测试结果,本次评测吸引了包括云存储、共享文件系统、Fabric-Attached Block 以及 Direct-Attached Block 在内的众多厂商参与。 由于各厂商在硬件配置、节点规模及应用场景方面存在差异,结果间的横向比较存在一定局限。因 此,本文将重点聚焦于共享文件系统这一类别,在统一测试标准下对其表现进行分析。 MLPerf Storage v2.0 及其测试负载 性 ...
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
AI前线· 2025-10-28 17:02
硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2] Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3] DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5] 模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7] 中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10] 开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18] AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]