AI前线

搜索文档
 视觉生成的另一条路:Infinity 自回归架构的原理与实践
 AI前线· 2025-10-31 13:42
自回归模型和 Scaling Law 作者 | 韩剑 审校|罗燕珊 策划 | AICon 全球人工智能开发与应用大会 以 ChatGPT、DeepSeek 为代表的大语言模型取得了巨大的成功,掀起了全球新一轮 AI 浪潮。 但是在视觉生成领域,目前主流的方法却是一直以扩散模型为主导。与大语言模型采取相同技术 路线的视觉自回归方法因为具有更好的 scaling 特性,能够统一理解 & 生成任务,隐藏着巨大的 潜力,正受到人们越来越多的重视。 本文整理自字节跳动商业化技术 AIGC 算法工程师韩剑 6 月份在 AICon 2025 北京站的分享 《Infinity:视觉自回归生成新路线》。本次演讲以被选为 CVPR 2025 Oral 的工作 Infinity 为 例,详细介绍自回归视觉生成的底层技术原理。并以图像生成和视频生成两个具体场景,分享最 新的研究成果和相关思考。 12 月 19~20 日的 AICon 北京站 将以 "探索 AI 应用边界" 为主题,聚焦企业级 Agent 落地、上 下文工程、AI 产品创新等多个热门方向,围绕企业如何通过大模型提升研发与业务运营效率的实 际应用案例,邀请来自头部企业、 ...
 4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?
 AI前线· 2025-10-31 13:42
比 Sonnet 4.5 快 13 倍, 编码性能近 SOTA "开发者不应在'思考速度快'与'思考质量高'的人工智能之间做选择。"Cognition 在官方声明中表示, 这一理念是 SWE-1.5 的设计基础。 据介绍,SWE-1.5 经过专门设计,是一款拥有数千亿参数的前沿规模模型,旨在打破上述权衡困境 的同时提供顶尖性能与一流速度。而该模型最显著的特点是其原始速度,这一优势源于与推理领域专 业机构 Cerebras 的深度合作:共同部署并优化 SWE-1.5。具体举措包括训练一个经过优化的草稿模 型以实现更快的投机解码以及构建定制化请求优先级系统,让端到端智能体交互过程更流畅。 Cognition 表示,此次合作让 SWE-1.5 实现了极佳的延迟表现,并"还树立了新的速度标准",使其处 理速度最高可达 950 token / 秒,分别是 Haiku 4.5 模型的 6 倍、Sonnet 4.5 模型的 13 倍。"这一性 整理 | 华卫 近日,开发出 Devin 智能体的知名人工智能公司 Cognition 推出其全新高速 AI 编码模型 SWE-1.5。 据介绍,该模型专为在软件工程任务中实现高性能 ...
 从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!
 AI前线· 2025-10-30 15:23
整理|冬梅 当大多数公司仍在摸索如何让开发人员有效使用 AI 编程工具时,金融科技公司 Block 已在 8 周内将 AI 智能体部署给全体员工,覆盖规模达 1.2 万人。 Block 是由美国知名互联网企业家、Twitter 联创 Jack Dorsey 与合伙人于 2009 年创立的金融科技公 司,当时公司名为 Square, Inc。 该公司初期的核心产品是 Square 支付设备——一个可插入手机、将手机变为刷卡终端的方形读卡 器。该产品诞生于 Dorsey 与合伙人 Jim McKelvey 在圣路易斯的一个小办公室中,为了解决小商户 无法接受信用卡的问题而设计。 随着业务不断扩展,公司于 2015 年在纽约证券交易所上市。2021 年 12 月 10 日,公司正式将名称 由 Square, Inc. 更名为 Block, Inc.,以体现其从支付服务扩展至更广泛金融与区块链生态的战略意 图。至 2024 年,Block 在美国已服务约 5,700 万用户、约 400 万商户。 在 AI 与自动化方面,Block 在 2025 年初推出了一个名为 "Goose" 的开源 AI Agent 框架。Go ...
 模力工场 017 周 AI 应用榜: 从营销工具到情感共鸣,最“温柔”AI 应用榜单来袭
 AI前线· 2025-10-30 15:23
模力工场秋季赛进行中,本周榜单如下,恭喜各位上榜的同学!完整榜单见模力工场网页端或小程 序端秋季赛区域。 模力工场新鲜事 模力工场 X 极客时间八周年直播,邀请掘金社区创始人阴明、极客邦 AI 工程中心产品总监、模力工 场上榜应用 DeepPath 时踪开发者王泰、智能投标助手开发者郝富华在直播间进行一场围绕"程序员 如何成为 AI 时代超级个体"的圆桌讨论。 模力工场秋季赛合伙人火热招募中!正在联合多方资源,共同打造开发者与用户的盛大嘉年华。我 们也在持续征集更多类型的奖品,诚邀各界合作伙伴加入! 讨论认为,AI 工具正在重塑开发方式,让工程师从单一角色走向"全栈 AI 工程师",技术红利的同时也带 来结构性焦虑:一部分人因 AI 实现能力跃迁,另一部分人则被技术迭代边缘化。 在大家看来,AI 时代的来临,导致的并非程序员"岗位消失",而是"能力再造"。如同媒体行业的转折 期,个体创作者崛起反而催生了新的需求与生态。面对这场变革,最核心的竞争力不再是掌握某项技 能,而是持续学习、精准提问与多角色协作的能力——能在产品、设计、运营与开发之间灵活切换,才 有机会成为 AI 时代的"超级个体"。 直播回放: ht ...
 谷歌推出 LLM-Evalkit,为提示词工程带来秩序与可衡量性
 AI前线· 2025-10-29 08:44
作者 | Robert Krzaczyński 译者 | 明知山 谷歌推出 LLM-Evalkit,一个基于 Vertex AI SDK 构建的开源框架,旨在让大语言模型的提示词工程 变得更加有序且可衡量。这款轻量级工具旨在用统一的、数据驱动的工作流取代以往分散的文档和基 于猜测的迭代方式。 正如 Michael Santoro 所指出的,任何与大语言模型合作过的人都深知其中的痛点:他们在一个控制 台中进行实验,然后在其他地方保存提示词,并且对结果的衡量缺乏一致性。LLM-Evalkit 将它们整 合到一个连贯的环境中——一个可以创建、测试、版本化和并排比 较提示词的地方。通过保留变更的共享记录,团队终于能够清晰地跟踪哪些提示词改进提升了性能, 而不再依赖于模糊的记忆或繁琐的电子表格。 该工具包的核心理念很简单:停止猜测,转而进行精准衡量。与其凭借主观感受去评判哪个提示 词"似乎"更好,用户可以明确地定义一个具体任务,精心构建一个具有代表性的数据集,并借助客观 的指标来评估输出结果。这一框架让每一次的改进都变得可量化,将原本的直觉判断转变为有据可依 的实证分析。 这种方法与现有的谷歌云工作流无缝集成。LLM- ...
 黄仁勋凌晨炸场:6G、量子计算、物理AI、机器人、自动驾驶全来了!AI芯片营收已达3.5万亿|2025GTC超全指南
 AI前线· 2025-10-29 08:40
作 者 | 木子 高 允毅 编辑 | 赵钰莹 在今年3月的春季GTC大会上,老黄曾秀出 最强AI芯片 GB300 NVL72 ,其中 "G" 是该芯片中的CPU架构 Grace , "B" 是GPU架构 Blackwell ,也是 英伟达现在主推的数据中心GPU架构。 本周可谓 美国科技行业的"超级周" ,而号称 "AI风向标" 的 英伟达GTC (GPU Technology Conference,GPU技术大会)也于美东时间10月27日 开 幕 。 10月28日,黄仁勋依旧身着皮衣登场。 但与以往有明确重点的发布会不同 ,老黄此次演讲 几乎把全球科技圈的热词悉数点了一遍:6G、量子计算、 物理AI、机器人、自动驾驶、核聚变... 一个没落下。 他还官宣了一个 跨次元般的 重磅消息 : 英伟达和 诺基亚 合作了,用AI提高无线通信的速度,共同建造面向AI原生的移动网络,搭建6G AI平台;为此,英伟达推出新品 NVIDIA Arc(Aerial Radio Network Computer) ,还将对诺基亚投资10亿美元(约合人民71亿元)。 值得一提的是,老黄这次(可能下次血本了)不仅演讲话题涉猎甚广,还 ...
 如何为 GPU 提供充足存储:AI 训练中的存储性能与扩展性
 AI前线· 2025-10-28 17:02
作者 | 莫飞虎 策划 |Tina 在 AI 训练中,业界往往将关注点集中在计算资源上,但如果存储性能不足,GPU 无法被充分利用, 计算效率将会大幅受限。因此,存储系统的性能对于提升整体训练效率至关重要。 本文旨在通过分 析最新的 MLPerf Storage v2.0 测试结果,探讨不同存储系统在大规模 AI 训练中的表现,并帮助读 者理解如何根据实际需求选择合适的存储方案 。 MLPerf Storage 基准测试作为业界权威评测体系,专门用于还原真实 AI 训练负载,以全面检验存储 系统在不同场景下的表现。 8 月 5 日,全球 AI 工程联盟 MLCommons 发布了最新的 MLPerf® Storage v2.0 测试结果,本次评测吸引了包括云存储、共享文件系统、Fabric-Attached Block 以及 Direct-Attached Block 在内的众多厂商参与。 由于各厂商在硬件配置、节点规模及应用场景方面存在差异,结果间的横向比较存在一定局限。因 此,本文将重点聚焦于共享文件系统这一类别,在统一测试标准下对其表现进行分析。 MLPerf Storage v2.0 及其测试负载 性 ...
 硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
 AI前线· 2025-10-28 17:02
 硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2]   Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3]   DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5]   模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7]   中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10]   开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18]   AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]
 均降40%的GPU成本,大规模Agent部署和运维的捷径是什么?| 直播预告
 AI前线· 2025-10-28 17:02
随着 AI 原生浪潮的到来,智能体(Agent)正成为企业创新的新引擎。然而,在生产环境中大规模落地 Agent,却面临开发复杂、运维困难、成本高企 等挑战。那么,这些问题应该如何解决?企业内部大规模部署和运维 Agent 是否有捷径可走?本次直播邀请 阿里云云原生应用平台 Serverless 计算 负责人 不瞋共同探讨上述问题。 直播介绍 直播主题 百倍启动加速,大规模 Agent 部署和运维的捷径是什么? 直播亮点 直播时间 如何看直播? 10 月 28 日 19:30-20:30 扫描下图海报 【二维码】 ,预约 AI 前线视频号直播。 直播嘉宾 阿里云云原生应用平台 Serverless 计算负责人 杨皓然(不瞋 极客邦科技总编 赵钰莹 从"云原生"到"AI 原生"的技术跃迁 百倍启动加速、平均降低 40% 的 GPU 成本:AgentRun 解读 从开发到运维:智能体的全生命周期治理 Serverless AI 的未来演进 9 2025年 10月 28日 19:30-20:30 铝 ttp://www. littless 章 官倍启动加速, 大规模 Agent 部/著和 运维的捷径是什么? 直播亮 ...
 在西部见证了一场极致真诚、极具影响力的科技领袖盛会|GTLC成都站圆满落幕
 AI前线· 2025-10-27 15:29
编辑 | 苏果果 10 月 25 日,GTLC 全球科技领导力大会·成都站圆满举办。本次 GTLC 大会以 "AI 新'蜀'光" 为主题,邀请十余位重磅嘉宾,从 AI 应用生态、企业转型等多角度展开精彩分享。除了 TGO 鲲鹏会(成都)的近百位学员报名之外,也有近百位其他城市的 TGO 学员、科技领导者报名参会,整体报名参会者 300 余人。 为什么说这是一场极致真诚、极具影响力的大会?让我们看下参会者的反馈 本次 GTLC 除包含多场高质量主题演讲外,还包含 11 场精彩主题闭门会,以及足球友谊赛、川西自驾等多项特色活动,让 GTLC 聚焦于学习,又不止于学习。 作为 GTLC 大会的主办方,TGO 鲲鹏会 2015 年成立至今已走过了十年历程。十年里,TGO 鲲鹏会学员规模实现十余倍增长,帮助科技管理者在技术、管理及跨专业领域不断收获 价值,助力企业突破研发、创新、管理等瓶颈,迈向更高质量发展。未来,TGO 鲲鹏会将继续吸纳更多年轻力量、教授学者、科创投资人、海外学员,走向全球,助力更多科技管理 者迈向卓越! 主题演讲回顾 本次 GTLC 成都站主议程共有 9 场主题分享,1 场圆桌对话。接下来,让我们一 ...










