AI前线

搜索文档
 从兼职工程师直接跳到CTO,他用两个月让一款 Agent 干掉60%复杂工作并放话:“代码质量与产品成功没有直接关系”!
 AI前线· 2025-10-30 15:23
整理|冬梅 当大多数公司仍在摸索如何让开发人员有效使用 AI 编程工具时,金融科技公司 Block 已在 8 周内将 AI 智能体部署给全体员工,覆盖规模达 1.2 万人。 Block 是由美国知名互联网企业家、Twitter 联创 Jack Dorsey 与合伙人于 2009 年创立的金融科技公 司,当时公司名为 Square, Inc。 该公司初期的核心产品是 Square 支付设备——一个可插入手机、将手机变为刷卡终端的方形读卡 器。该产品诞生于 Dorsey 与合伙人 Jim McKelvey 在圣路易斯的一个小办公室中,为了解决小商户 无法接受信用卡的问题而设计。 随着业务不断扩展,公司于 2015 年在纽约证券交易所上市。2021 年 12 月 10 日,公司正式将名称 由 Square, Inc. 更名为 Block, Inc.,以体现其从支付服务扩展至更广泛金融与区块链生态的战略意 图。至 2024 年,Block 在美国已服务约 5,700 万用户、约 400 万商户。 在 AI 与自动化方面,Block 在 2025 年初推出了一个名为 "Goose" 的开源 AI Agent 框架。Go ...
 模力工场 017 周 AI 应用榜: 从营销工具到情感共鸣,最“温柔”AI 应用榜单来袭
 AI前线· 2025-10-30 15:23
模力工场秋季赛进行中,本周榜单如下,恭喜各位上榜的同学!完整榜单见模力工场网页端或小程 序端秋季赛区域。 模力工场新鲜事 模力工场 X 极客时间八周年直播,邀请掘金社区创始人阴明、极客邦 AI 工程中心产品总监、模力工 场上榜应用 DeepPath 时踪开发者王泰、智能投标助手开发者郝富华在直播间进行一场围绕"程序员 如何成为 AI 时代超级个体"的圆桌讨论。 模力工场秋季赛合伙人火热招募中!正在联合多方资源,共同打造开发者与用户的盛大嘉年华。我 们也在持续征集更多类型的奖品,诚邀各界合作伙伴加入! 讨论认为,AI 工具正在重塑开发方式,让工程师从单一角色走向"全栈 AI 工程师",技术红利的同时也带 来结构性焦虑:一部分人因 AI 实现能力跃迁,另一部分人则被技术迭代边缘化。 在大家看来,AI 时代的来临,导致的并非程序员"岗位消失",而是"能力再造"。如同媒体行业的转折 期,个体创作者崛起反而催生了新的需求与生态。面对这场变革,最核心的竞争力不再是掌握某项技 能,而是持续学习、精准提问与多角色协作的能力——能在产品、设计、运营与开发之间灵活切换,才 有机会成为 AI 时代的"超级个体"。 直播回放: ht ...
 谷歌推出 LLM-Evalkit,为提示词工程带来秩序与可衡量性
 AI前线· 2025-10-29 08:44
作者 | Robert Krzaczyński 译者 | 明知山 谷歌推出 LLM-Evalkit,一个基于 Vertex AI SDK 构建的开源框架,旨在让大语言模型的提示词工程 变得更加有序且可衡量。这款轻量级工具旨在用统一的、数据驱动的工作流取代以往分散的文档和基 于猜测的迭代方式。 正如 Michael Santoro 所指出的,任何与大语言模型合作过的人都深知其中的痛点:他们在一个控制 台中进行实验,然后在其他地方保存提示词,并且对结果的衡量缺乏一致性。LLM-Evalkit 将它们整 合到一个连贯的环境中——一个可以创建、测试、版本化和并排比 较提示词的地方。通过保留变更的共享记录,团队终于能够清晰地跟踪哪些提示词改进提升了性能, 而不再依赖于模糊的记忆或繁琐的电子表格。 该工具包的核心理念很简单:停止猜测,转而进行精准衡量。与其凭借主观感受去评判哪个提示 词"似乎"更好,用户可以明确地定义一个具体任务,精心构建一个具有代表性的数据集,并借助客观 的指标来评估输出结果。这一框架让每一次的改进都变得可量化,将原本的直觉判断转变为有据可依 的实证分析。 这种方法与现有的谷歌云工作流无缝集成。LLM- ...
 黄仁勋凌晨炸场:6G、量子计算、物理AI、机器人、自动驾驶全来了!AI芯片营收已达3.5万亿|2025GTC超全指南
 AI前线· 2025-10-29 08:40
作 者 | 木子 高 允毅 编辑 | 赵钰莹 在今年3月的春季GTC大会上,老黄曾秀出 最强AI芯片 GB300 NVL72 ,其中 "G" 是该芯片中的CPU架构 Grace , "B" 是GPU架构 Blackwell ,也是 英伟达现在主推的数据中心GPU架构。 本周可谓 美国科技行业的"超级周" ,而号称 "AI风向标" 的 英伟达GTC (GPU Technology Conference,GPU技术大会)也于美东时间10月27日 开 幕 。 10月28日,黄仁勋依旧身着皮衣登场。 但与以往有明确重点的发布会不同 ,老黄此次演讲 几乎把全球科技圈的热词悉数点了一遍:6G、量子计算、 物理AI、机器人、自动驾驶、核聚变... 一个没落下。 他还官宣了一个 跨次元般的 重磅消息 : 英伟达和 诺基亚 合作了,用AI提高无线通信的速度,共同建造面向AI原生的移动网络,搭建6G AI平台;为此,英伟达推出新品 NVIDIA Arc(Aerial Radio Network Computer) ,还将对诺基亚投资10亿美元(约合人民71亿元)。 值得一提的是,老黄这次(可能下次血本了)不仅演讲话题涉猎甚广,还 ...
 如何为 GPU 提供充足存储:AI 训练中的存储性能与扩展性
 AI前线· 2025-10-28 17:02
作者 | 莫飞虎 策划 |Tina 在 AI 训练中,业界往往将关注点集中在计算资源上,但如果存储性能不足,GPU 无法被充分利用, 计算效率将会大幅受限。因此,存储系统的性能对于提升整体训练效率至关重要。 本文旨在通过分 析最新的 MLPerf Storage v2.0 测试结果,探讨不同存储系统在大规模 AI 训练中的表现,并帮助读 者理解如何根据实际需求选择合适的存储方案 。 MLPerf Storage 基准测试作为业界权威评测体系,专门用于还原真实 AI 训练负载,以全面检验存储 系统在不同场景下的表现。 8 月 5 日,全球 AI 工程联盟 MLCommons 发布了最新的 MLPerf® Storage v2.0 测试结果,本次评测吸引了包括云存储、共享文件系统、Fabric-Attached Block 以及 Direct-Attached Block 在内的众多厂商参与。 由于各厂商在硬件配置、节点规模及应用场景方面存在差异,结果间的横向比较存在一定局限。因 此,本文将重点聚焦于共享文件系统这一类别,在统一测试标准下对其表现进行分析。 MLPerf Storage v2.0 及其测试负载 性 ...
 硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
 AI前线· 2025-10-28 17:02
 硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2]   Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3]   DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5]   模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7]   中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10]   开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18]   AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]
 均降40%的GPU成本,大规模Agent部署和运维的捷径是什么?| 直播预告
 AI前线· 2025-10-28 17:02
随着 AI 原生浪潮的到来,智能体(Agent)正成为企业创新的新引擎。然而,在生产环境中大规模落地 Agent,却面临开发复杂、运维困难、成本高企 等挑战。那么,这些问题应该如何解决?企业内部大规模部署和运维 Agent 是否有捷径可走?本次直播邀请 阿里云云原生应用平台 Serverless 计算 负责人 不瞋共同探讨上述问题。 直播介绍 直播主题 百倍启动加速,大规模 Agent 部署和运维的捷径是什么? 直播亮点 直播时间 如何看直播? 10 月 28 日 19:30-20:30 扫描下图海报 【二维码】 ,预约 AI 前线视频号直播。 直播嘉宾 阿里云云原生应用平台 Serverless 计算负责人 杨皓然(不瞋 极客邦科技总编 赵钰莹 从"云原生"到"AI 原生"的技术跃迁 百倍启动加速、平均降低 40% 的 GPU 成本:AgentRun 解读 从开发到运维:智能体的全生命周期治理 Serverless AI 的未来演进 9 2025年 10月 28日 19:30-20:30 铝 ttp://www. littless 章 官倍启动加速, 大规模 Agent 部/著和 运维的捷径是什么? 直播亮 ...
 在西部见证了一场极致真诚、极具影响力的科技领袖盛会|GTLC成都站圆满落幕
 AI前线· 2025-10-27 15:29
编辑 | 苏果果 10 月 25 日,GTLC 全球科技领导力大会·成都站圆满举办。本次 GTLC 大会以 "AI 新'蜀'光" 为主题,邀请十余位重磅嘉宾,从 AI 应用生态、企业转型等多角度展开精彩分享。除了 TGO 鲲鹏会(成都)的近百位学员报名之外,也有近百位其他城市的 TGO 学员、科技领导者报名参会,整体报名参会者 300 余人。 为什么说这是一场极致真诚、极具影响力的大会?让我们看下参会者的反馈 本次 GTLC 除包含多场高质量主题演讲外,还包含 11 场精彩主题闭门会,以及足球友谊赛、川西自驾等多项特色活动,让 GTLC 聚焦于学习,又不止于学习。 作为 GTLC 大会的主办方,TGO 鲲鹏会 2015 年成立至今已走过了十年历程。十年里,TGO 鲲鹏会学员规模实现十余倍增长,帮助科技管理者在技术、管理及跨专业领域不断收获 价值,助力企业突破研发、创新、管理等瓶颈,迈向更高质量发展。未来,TGO 鲲鹏会将继续吸纳更多年轻力量、教授学者、科创投资人、海外学员,走向全球,助力更多科技管理 者迈向卓越! 主题演讲回顾 本次 GTLC 成都站主议程共有 9 场主题分享,1 场圆桌对话。接下来,让我们一 ...
 GPT-5.1曝光挽差评?救场背后,OpenAI 员工痛批Meta系的人正在“搞垮”公司!
 AI前线· 2025-10-27 15:29
整理 | 褚杏娟 近日,有开发者发现,OpenAI 官方在 "openai-agents-js" GitHub 仓库中被提及一个新模型:GPT-5.1 mini 。"显然 GPT-5.1 mini 是真实的……"以下是 即将推出的 GPT 模型可能采用的命名规则。 目前并不确定这个版本是否会作为单独模型使用,有网友反馈该模型已经被合并。 有开发者称,OpenAI 已经测试了 GPT-5 mini 的新版本。该版本很可能就是为企业账户 "内部知识库" 功能提供支持的模型。在对该模型进行了简单测 试后,网友称"其表现优于当前的 GPT-5 mini。" "在 GitHub 上查找模型名称就像当一名侦探,只不过是针对人工智能的。OpenAI 的员工们一次又一次地意外泄露了路线图。"有开发者表示。 也有开发者希望,具有高思维能力的 GPT-5- mini 可以作为 GPT-5-Low 的免费无限版本。"性能也应该会更好,同时每个查询(用于加载模型)使用的 GPU 数量也会大大减少。借助新的 Nvidia GPU,查询速度也可以非常快。" 不过也有开发者对此表示质疑,"不确定我们能从单元测试中推断出多少信息。测试代码里 ...
 比小说还“野”!宿舍副业 AI 项目征服全美高校,俩20岁辍学大学生年赚千万,大批融资找上门全拒
 AI前线· 2025-10-27 15:29
 公司概况与业绩表现 - 公司由两名20岁的大学辍学生Rudy Arora与Sarthak Dhawan联合创办,其AI笔记工具Turbo AI用户量已激增至500万,年经常性收入突破八位数(即超过1000万美元)[2][3] - 公司始终保持盈利状态,且每天新增2万用户,自成立以来仅筹集了75万美元资金,但现金流始终为正[2][7][9] - 公司团队规模为15人,总部位于洛杉矶,目前正专注于与高校学生及创作者群体保持紧密联系[11]   产品开发与核心功能 - 产品灵感源于大学课堂难题,旨在解决学生无法同时兼顾听课和记笔记的问题,最初功能为录制课程并自动生成笔记、闪卡和测验题[3] - 产品在“录制-转录-总结”流程基础上,增加了AI生成的互动功能,包括学习笔记、测验题、闪卡以及可解释关键术语的聊天助手[3] - 由于大型教室录制时背景噪音问题,团队新增功能允许用户上传PDF、课程材料、YouTube视频或阅读文档替代录音,该功能已成为比实时课堂录制更常用的使用场景[4]   用户增长与市场拓展 - 产品最初在杜克大学和西北大学的学生间传播,短短几个月内渗透到哈佛大学、麻省理工学院等全美高校,成为全美高校学生的首选AI学习工具[6] - 产品影响力突破学术界,职场人士如顾问、律师、医生及高盛和麦肯锡的分析师也开始使用该工具,例如上传报告生成摘要或转化为播客[6][7] - 为覆盖更广泛的使用场景,产品从侧重学习功能的“Turbolearn”更名为“Turbo AI”,强调其AI笔记与学习辅助功能[7]   商业模式与竞争策略 - 公司向学生用户收取每月约20美元的费用,同时通过A/B测试实验调整定价以应对学生群体的价格敏感度[9] - 产品的竞争定位介于“手动工具”(如谷歌文档)与“全自动笔记工具”(如Otter、Fireflies)之间,用户既可以让AI全权处理任务,也能与AI协同操作[9] - 公司对过早筹集大量资金持谨慎态度,尽管有很多投资意向找上门,但并不急于推进融资[10]   创始团队背景与成功因素 - 两位创始人中学时期相识,曾合作多个项目,其中Dhawan开发的自我提升类应用UMax曾登顶App Store排行榜,积累2000万用户,年营收达600万美元[8] - Arora擅长社交媒体增长策略,能为产品带来数百万自然流量,而Turbo AI被视为具备可持续性的商业模式,足以让两人毅然辍学全力投入[8] - 公司的成功证明即使没有募集巨额融资,只要产品与市场需求高度匹配,依然有可能实现爆发式增长,为“风投驱动”的传统创业模式提供了替代方案[11]










