AI前线
搜索文档
AI两天推翻20年工作习惯!Karpathy百行代码开源项目“封神”,AI替你通宵肝研究、战绩可查
AI前线· 2026-03-16 18:42
项目核心概述 - 特斯拉前AI总监Andrej Karpathy开源了名为autoresearch的项目,该项目旨在打造一个能够自主进行深度学习研究的AI Agent [2] - 项目逻辑是给AI Agent配备一个小型但真实可用的LLM训练环境,让其自主通宵进行实验 [2] - 项目在两天内自主完成了276次实验,筛选出29项有效改进,将一个语言模型的训练效率提升了约11%,全程零人类干预 [2] - 项目在GitHub上已获得36.9k Stars,并有1060万次围观 [4][12] 项目技术细节与设计 - 项目代码极简,总共630行Python代码,核心文件仅有三个 [7][8] - AI Agent会自动修改代码、训练5分钟、检查效果、保留或丢弃结果,并不断循环 [7] - 每次训练固定耗时5分钟,核心评估指标为验证集每字节比特数(val_bpb),数值越低越好 [8] - 基于5分钟的实验设计,AI Agent每小时可完成约12次实验,通宵8小时约能跑完100次实验 [8] - 项目目前仅支持单张NVIDIA GPU [10] 项目成果与验证 - 在为期两天的自主调优中,AI Agent对深度为12的nanochat模型摸索出约20处改动,成功降低了验证损失 [15] - 所有优化效果均可叠加,并能直接迁移到更大的深度为24的模型上 [15] - 整合所有改动后,模型“训练至GPT-2水平耗时”从2.02小时缩短至1.80小时,性能提升约11% [15] - Karpathy表示,Agent端到端地自主完成了整个流程,并独立完成了约700次改动尝试 [16] 项目愿景与未来展望 - 项目的下一步目标是实现Agent之间异步大规模协作,模拟一个由无数博士生组成的完整科研社群,而非仅模拟一名博士生 [12] - Karpathy认为,未来所有深耕大模型领域的顶尖实验室都会采用这种自主调优方式 [16] - 具体的落地思路是启动Agent集群协同调优小模型,再将最有潜力的优化方案迁移到更大规模的模型训练中 [17] - 任何可高效评估指标或拥有高效代理指标的任务,都能通过Agent集群实现自主调优研究 [17] 社区发展与协作 - 项目已被全球开发者社区接手共建,他们搭建了一个分布式协作层,让多个Agent共享成果、分工协作 [17] - 社区协作版本(autoresearch@home)已运行了将近3000次实验,产生了82项改进,并有97个研究Agent参与贡献 [17][18] - Karpathy尝试探索新的协作模式,例如让Agent将实验结果总结成讨论帖或通过PR(合并请求)进行“采纳”而非合并,以支持大规模分支协作 [13]
1500 个 PR、0 人写代码:Codex 驱动的百万行级内部产品实践
AI前线· 2026-03-15 14:05
文章核心观点 - 公司团队成功完成一项挑战,在五个月内开发并发布了一款完全由AI代码生成工具(Codex)编写代码的内部测试产品,实现了极高的开发效率,耗时仅为手动开发的10% [2] - 该实验的核心模式是“人类掌舵,Agent执行”,工程师的角色从编写代码转变为设计环境、定义意图和构建反馈循环,以最大化利用人类的时间与注意力 [3] - 通过构建一个完全由Agent生成、高度结构化且对Agent“可读”的代码库,并辅以严格的架构约束和自动化工具链,公司实现了工程效能的量级突破,并探索了AI编程代理(Agent)在复杂软件开发中的规模化应用前景 [6][24][40] 开发模式与效率 - 开发团队在五个月内,从一个空仓库开始,驱动Codex生成了约100万行代码,涵盖应用逻辑、基础设施、工具链、文档和内部开发组件 [6] - 一支3名工程师的团队驱动Codex开启并合并了约1500个PR,平均每位工程师每天产出3.5个PR,团队扩大到7人后人均产出率进一步提升 [6] - 整个开发过程中,人类从未直接贡献任何一行代码,形成了“拒绝人工编写代码”的核心哲学 [6] - 人类与系统的交互几乎完全通过提示词完成,工程师描述任务,运行Agent,授权其开启Pull Request,并通过Agent间的交叉评审(“拉尔夫·维格姆循环”)来推进PR合并 [9] - 随着代码产出率提升,瓶颈变为人类的QA能力,因此团队致力于增加应用UI、日志和指标对Codex的“可读性”,例如让Codex能够为每次代码变更运行应用实例,并通过Chrome DevTools Protocol复现Bug和验证修复 [12] - 单次Codex运行可持续处理一个任务超过6小时,通常是在人类休息时 [16] 工程师角色与系统设计 - 工程师的工作重心转向系统设计、脚手架搭建和杠杆效能,首要任务变为“赋能Agent开展有效工作” [8] - 采用深度优先的工作方式:将宏大目标拆解为微小构建块,驱动Agent构建,并利用已有块解锁更复杂任务,任务失败时,人类工程师会思考并补充缺失的能力 [8] - 团队将几乎所有的代码评审工作都交给了“Agent对Agent”的协作模式 [10] - 团队意识到,只有仓库本地的、版本化的工件(代码、Markdown、Schema、可执行计划)才是Agent可见的全部世界,因此致力于将所有必要的上下文(如设计决策、团队共识)推入仓库,使其对Agent“可读” [20][22] - 人类工程师的目标是让Agent能够直接从仓库本身推导并理解完整的业务领域知识 [20] 知识管理与上下文策略 - 团队放弃了“单一AGENTS.md大文件”方案,因其会导致上下文稀缺、引导过度、文档腐化和难以验证等问题 [18] - 最终策略是将AGENTS.md视为目录而非百科全书,一份简短的AGENTS.md(约100行)作为地图,指向分布在结构化docs/目录中的更深层“事实来源” [19] - 设计文档、架构文档、质量文档和执行计划都被作为一等公民进行版本化管理,使Agent能够不依赖外部上下文即可工作 [19] - 通过专门的Linter、CI任务和一个循环运行的“文档园丁”Agent来机械化地验证和维持知识库的时效性、正确性与结构合规 [20] - 这种“渐进式披露”的策略让Agent从一个微小、稳定的入口点开始,根据需要寻找信息,而不是被海量信息淹没 [20] 架构约束与自动化执行 - 为保持由Agent生成代码库的连贯性,团队通过强制执行“不变量”而非微观管理实现细节来约束Agent [24] - 围绕一套僵化的架构模型构建应用,每个业务领域被划分为一组固定的层级,拥有严格验证的依赖方向和有限的允许连接点,跨领域关注点通过明确的“提供者”接口进入 [24] - 这些架构约束通过自定义Linter(由Codex生成)和结构化测试进行机械化强制执行 [24] - 团队还通过静态检查强制执行一系列“审美不变量”,如结构化日志记录、命名规范、文件大小限制等,由于Linter是自定义的,可以编写专门的错误信息将修复指令直接注入Agent上下文 [27] - 团队明确区分需要约束的边界和允许自由表达的领域,中央强制执行边界,地方允许自主 [27] - 最终生成的代码只要正确、可维护且对未来的Agent运行可理解即达到标准,人类审美会通过评审评论、重构PR等反馈到系统中,并可能被编码进工具链 [28][29] 开发流程与自主化演进 - 随着Codex吞吐量增加,合并哲学发生改变,PR生命周期非常短,对于测试偶发失败通常通过后续运行解决,因为在一个Agent吞吐量远超人类注意力的系统中,纠错廉价而等待昂贵 [30][31] - Codex Agent生成的内容包括产品代码、测试、CI配置、内部工具、文档、设计历史、评估框架、评审评论、管理脚本乃至生产环境仪表盘定义文件 [32] - Agent能够直接使用标准开发工具,获取评审反馈、进行行内回复、推送更新,并通常会自主压缩并合并自己的PR [33] - 随着更多开发环路被编码进系统,Codex已能够端到端地驱动新特性开发,仅需一段提示词即可自主完成从验证状态、复现Bug、实现修复、验证结果、开启PR、响应反馈到合并变更的全流程 [35] - 这种高度自主化能力极度依赖于该仓库特定的结构和工具链,目前尚不能直接泛化 [35] 挑战与持续优化 - 完全的Agent自主权带来了新挑战,Codex会复制仓库中已有的模式(包括非最优模式),导致架构偏离和技术债积累 [37] - 最初团队用每周20%的时间手动清理“AI废料”,但该模式无法扩展 [38] - 解决方案是将“金科玉律”写入代码仓库,并建立周期性清理机制,通过明确的机械化规则和定期运行的Codex后台任务来扫描偏离、更新质量评分并开启重构PR,大部分修复PR可在一分钟内自动合并 [38] - 这种机制类似于“垃圾回收”,通过持续小额偿还技术债,防止其复利增长 [38] - 公司仍在探索完全由Agent生成的系统其架构在数年跨度下的连贯性演进,以及如何将人类判断力转化为可沉淀、可产生复利的规则 [40] - 当前最艰巨的挑战在于设计环境、反馈循环和控制系统,以帮助Agent大规模构建并维护复杂可靠的软件 [40]
字节暂停 Seedance2.0 全球发布,回应武汉全员被裁;曝梁文锋将携 DeepSeek V4 撞上姚顺雨;央视 315 曝光黑灰产“养号工厂” | AI周报
AI前线· 2026-03-15 14:05
大模型产品发布与更新 - DeepSeek-V4多模态大模型计划于4月上线,重点提升Coding能力和长期记忆(LTM)技术,并补齐视觉内容处理和AI搜索短板,为强化AI搜索能力已于去年与百度合作 [2] - 腾讯首席AI科学家姚顺雨将发布30B参数级别的混元新模型,其理念强调方法的复杂程度应与任务难度相匹配,不以打榜为导向 [3] - 智谱上线国内首个真一键安装的本地版OpenClaw——AutoClaw(澳龙),预置50+主流Skills,并内置专属模型Pony-Alpha-2 [35] - 百度智能云推出全球首款手机龙虾应用“红手指Operator”,已上线安卓市场,OpenClaw负责处理PC与网页端复杂任务,Operator负责原生App环境任务执行 [30] 公司战略与投融资动态 - Kimi正在进行新一轮10亿美元融资,估值在3个月内翻了4倍,涨至180亿美元(约合1243.55亿元人民币),其个人订阅用户支付订单量在1月环比增长8280%,2月环比再涨123.8% [15] - 谷歌母公司Alphabet以320亿美元(约合2200.49亿元人民币)全现金完成对网络安全公司Wiz的收购,这是谷歌26年来规模最大的交易,旨在加强云安全布局 [19] - 由杨立昆创办的世界模型研究所AMI完成10.3亿美元融资,投前估值35亿美元,英伟达、丰田创投、软银等参投,谢赛宁已加入担任首席科学官 [20][21] - 前vivo产品经理宋紫薇创办的AI硬件公司“薇光点亮”完成超亿元Pre-A轮融资,聚焦“AI+时尚”赛道,研发首款AI原生时尚终端(智能落地镜) [22] - Meta计划进行大规模裁员,可能波及至少20%的员工(基于截至去年底近7.9万员工总数),旨在抵消AI基础设施巨额成本并为“AI辅助型员工”带来的效率提升做准备 [17][18] 行业合作与生态发展 - 谷歌向美国国防部超过300万名文职与军职人员部署Gemini AI智能体,初期用于非机密网络,首批八个智能体用于自动处理行政事务,自去年12月以来相关门户已处理约4000万条提示并上传超400万份文件 [23] - 腾讯推出基于OpenClaw生态构建的本地化技能平台SkillHub,上线首周给用户分发了180GB(87万次下载),但称从官方源只拉取约1GB [8][10] - 九号公司宣布支持OpenClaw接入两轮智能电动车场景,相关技能已上架ClawHub,首批开放车辆状态、电量、定位等信息的读取能力 [36] - 微软推出AI健康平台Copilot Health,可连接美国超50000家医院和医疗机构导入记录,支持50多种可穿戴设备,并推出基于Claude Cowork技术的智能代理工具Copilot Cowork,融入Microsoft 365生态 [31][32] 争议、监管与风险事件 - 字节跳动因版权纠纷暂停其视频生成模型Seedance 2.0的全球发布,此前遭到迪士尼和派拉蒙旗下公司投诉,称其使用了受版权保护的素材 [5][6] - OpenClaw创始人指责腾讯SkillHub平台抄袭其Clawhub上的技能并导致服务器成本飙升,腾讯回应称SkillHub是为中国用户提供更好可用性的本地镜像站,标注了原始来源 [8] - 央视315曝光互联网账号盗号、养号、再卖号的黑色产业链(“养号工厂”),使用“主板机”模拟真实用户行为规避风控,账号根据实名认证时间和支付信息完善程度明码标价 [26] - 小红书发布公告,将严格打击利用AI托管模式模拟真人进行非真实内容创作或虚假互动的账号 [25] 技术趋势与成本挑战 - AI智能体(如OpenClaw)运行成本高昂,因其需频繁读网页、调工具、与大模型多轮交互,Token消耗量是普通大模型的数倍甚至上百倍,有用户执行一次复杂任务一天可烧掉数万元,市场流传“月薪两万养不起一只龙虾”的说法 [13] - 国家超算互联网宣布面向OpenClaw用户免费发放1000万Tokens额度(限时2周),并公布OpenClaw的Token续购价格为0.1元/百万Tokens [14] - 腾讯云智能体开发平台调整部分模型计费策略,GLM5、MiniMax2.5、Kimi2.5等模型结束免费公测转为正式商用,混元系列模型Tencent HY2.0Instruct输入输出价格涨幅超450% [11] - OpenAI计划在ChatGPT平台整合其AI视频生成器Sora,预计从现在到2030年其推理成本将超过2250亿美元 [37] 人才流动与组织调整 - 原阿里巴巴通义实验室千问大模型后训练负责人郁博文已加入字节跳动,担任Seed团队视觉模型与多模态交互团队后训练负责人,其在阿里的离职源于团队拆分、管理范围缩小及技术理念冲突 [7] - 中国传媒大学去年一次性调整停办16个本科专业方向(包括翻译、摄影等),今年拟申请增设3个本科专业,拟撤销7个本科专业,强调教育要面向人机分工时代 [16] - 字节跳动回应武汉研发中心解散传闻不实,称基于业务调整将有50位员工调整办公地,并强调在武汉有2000多名员工,将持续加大对湖北的投入 [6] 新产品与市场拓展 - 微信正在秘密研发“绝密级”AI智能体项目,计划连接微信平台内数百万个小程序以替代用户手动操作,同时也在尝试研发独立的自有AI模型以支持内部生态,预计2026年对外落地 [12] - 马斯克宣布xAI的新项目“数字擎天柱”,定义为“数字AI员工”,主打小模型与极致推理速度,运行在特斯拉自研的AI4芯片上,功耗仅为英伟达H100的四分之一,成本低至650美元 [34] - 埃隆·马斯克表示,X平台旗下的数字支付系统X Money将于下月进入早期公测阶段,旨在将X打造成“超级应用”并开辟新收入来源 [36] - 腾讯旗下全场景AI智能体WorkBuddy正式上线,完全兼容OpenClaw技能,可接入企业微信、QQ、飞书、钉钉等工具,用户可通过手机远程操控办公电脑完成任务 [10]
Cloudflare:我们如何用 OpenCode 和 Claude,在一周内重构 Next.js
AI前线· 2026-03-14 13:33
vinext项目概述 - 一名工程师使用AI模型重构了流行的前端框架Next.js,创建了名为vinext的即插即用替代方案,基于Vite构建,可一键部署至Cloudflare Workers [2] - 该项目总成本约为1100美元的Token费用 [3] - 在包含33条路由的应用基准测试中,生产构建速度最高提升4.4倍,客户端打包体积(gzip压缩后)最高减少57% [2][14] Next.js的局限性 - Next.js是最流行的React框架,但部署到无服务器环境(如Cloudflare Workers、AWS Lambda)时存在适配问题,其工具链高度定制化 [4] - 现有解决方案如OpenNext需要对Next.js构建输出进行逆向工程,过程脆弱且易受版本变更影响 [5] - Next.js的一等适配器API仍处早期阶段,且开发环境(`next dev`)无法接入非Node.js运行时,限制了平台特定API的测试 [6] vinext的技术方案与优势 - vinext选择基于Vite重新实现Next.js的API,而非适配其输出,这是一次干净的重新实现 [8] - 它提供与Next.js相同的命令(`dev`, `build`, `deploy`),并完整实现了路由、服务端渲染、React Server Components等API [10][11] - 其架构优势在于利用Vite Environment API,使构建输出可在任意平台运行 [11] - 初步基准测试显示,使用Vite 7/Rollup时生产构建时间为4.64秒,比Next.js快1.6倍;使用Vite 8/Rolldown时仅需1.67秒,快4.4倍 [14] - 客户端打包体积从Next.js的168.9 KB降至74.0 KB(Rollup)和72.9 KB(Rolldown),分别减小56%和57% [14] - Vite 8中基于Rust的打包器Rolldown展现出结构性性能优势 [15] 部署与平台集成 - vinext以Cloudflare Workers为首要部署目标,支持`vinext deploy`一键部署 [17] - 内置Cloudflare KV缓存处理器,开箱即用支持增量静态再生(ISR),且缓存层可插拔 [18] - 应用在开发和部署阶段均运行在`workerd`中,可无妥协地使用Durable Objects、AI绑定等所有Cloudflare专属服务 [19] - 项目约95%的代码与Cloudflare无关,公司希望与其他托管服务商合作,扩展部署目标 [21] 项目当前状态与功能 - vinext目前处于实验阶段,诞生不到一周,尚未经过大规模真实流量检验 [22][23] - 测试套件完备,包含超过1700个Vitest测试与380个Playwright端到端测试,对Next.js 16 API的覆盖率达到94% [23] - 已有真实客户National Design Studio在生产环境使用,用于构建CIO.gov测试站点 [23] - 目前开箱即支持ISR,但暂不支持构建时静态预渲染(如`generateStaticParams`),该功能已列入路线图 [26][27] - 公司提出了“流量感知预渲染”实验性功能,计划根据Cloudflare区域分析数据,只预渲染被实际访问的关键页面,以优化大型站点构建效率 [30][31] AI在开发中的角色与影响 - 该项目由一名工程师(工程经理)指导AI在不到一周内完成,早期尝试通常需要团队耗费数月或数年 [33][34] - 项目成功归因于多个因素:Next.js API定义清晰、文档完善、测试套件全面;Vite提供了优秀的基础框架;AI模型能力已能处理复杂逻辑并保持连贯性 [37][38] - 几乎每一行代码都由AI编写,并遵循了与人工编写相同的质量标准,项目建立了包含测试、类型检查和代码检查的完善质量保障机制 [40] - 开发流程高度依赖AI:定义任务后,由AI编写实现与测试,运行测试并通过反馈循环迭代修复 [42] - 项目期间在OpenCode中运行了800多个会话 [43] - 此案例表明,AI能够理解整个系统并直接编写代码,可能改变软件中为人类认知服务的抽象层次结构 [44] 迁移与后续计划 - vinext提供了一个用于处理迁移的Agent Skill,可集成到多种AI编码工具中,辅助进行兼容性检查、依赖安装和配置生成 [45][46] - 项目是开源的,公司欢迎来自其他平台的贡献,以扩展部署目标并确保项目的长期发展 [21][47]
“为了让工程师用 AI,公司会裁掉一半人!”硅谷顶级大佬直言,AI 一天 3 小时搞定工作,还搞 996 的公司必垮
AI前线· 2026-03-14 13:33
AI对软件行业的颠覆性影响 - AI正在软件行业引发"吸血鬼效应",即AI让人异常亢奋,导致创业者和工程师精力透支,白天困倦但晚上仍被新想法和工具推动工作[2] - AI的本质是百倍放大人的能力,而非简单替代,这将使小团队有能力挑战臃肿的大公司[2] - 企业为供养剩余员工全力使用AI,正在默认裁掉约50%的工程师[2][24] - 停留在传统IDE、仅将AI作为辅助工具的工程师将面临被批量淘汰的风险[2] - 移动与云之后,软件行业创新已停滞,大公司的创新名存实亡[2][13] 未来软件开发范式重构 - 未来编程将彻底重构,不再是敲代码,而是通过与可视化的AI形象对话、指挥Agent来完成工作[3] - AI指挥AI将成为下一代主流开发模式,Gas Town等实验已证明其可行性[3][47] - 到2027年,非开发者也能主导软件开发,编程走向全民化[3] - 未来的开发界面将演变为"对着一张脸说话",即与屏幕上的可视化AI形象进行语音交互[42][43] - Claude Cowork等更可视化的交互形式,可能比Claude Code等纯命令行工具更适合普通开发者[37] AI驱动的效率革命与组织变革 - AI带来百倍提效后,人一天真正高效的工作时间可能只有3小时,继续强行996会榨干员工并拖垮公司[2][67] - 当工程师生产率提升100倍后,其创造的新增价值归属成为关键问题,公司需要重新思考工作与价值的平衡[64][66] - 公司衡量指标可能转向模型调用量(token burn),这代表员工在主动尝试和探索AI[38] - 大公司因组织架构和流程瓶颈,无法有效承接AI带来的超高生产率产出,创新将从小团队爆发[26][84] - 许多大公司内部创新已死,未来真正的创新只会从边缘地带的小公司中产生[83][85] AI代理(Agent)的应用与演进 - 2024年是对话交互阶段,2025年将全面进入智能体(Agent)时代[47] - Agent应用存在不同等级,从完全不用AI到启动多个Agent并行工作,形成多路复用的工作流[33][36] - Gas Town是一个智能体编排器,其核心逻辑是Agents运行Agents[46][47] - 在Gas Town中,设计了两种基本工作流:上下文最小化的简单任务执行(polecats)和上下文最大化的复杂设计问题讨论(crew)[49][50] - 当前模型能力下,AI能够稳定有效构建的代码规模上限在50万行到500万行之间,下一代模型可能将上限提升至数百万行级别[61] 行业趋势与投资机会 - 真正的护城河是人与人的连接,fork开源项目将成为常态[3][101] - 将出现巨大的基础组件生态系统,特别是为没有技术背景但想自己构建产品的人提供API服务[87] - 提供能让AI更方便调用的、需要持续维护的服务(如符合法规的API)将存在机会[87] - 那些能写出被AI喜欢使用、优先调用的软件的公司或个人将获得优势[108] - 软件质量将大幅提升,未来十年软件将像空气一样普遍,人们将有大量优质选择,而非在几个糟糕的选项中挑选[106] AI发展曲线与核心规律 - AI发展遵循指数曲线,并且即将进入最陡峭的上升区间[21] - 模型迭代的"半衰期"已从去年初的四个月缩短至约两个月,新模型发布将不断推高能力曲线[22] - 核心规律是"更大,就更聪明",更大的模型和更多的数据是终极规律,而非依赖人类的领域知识[3][96] - "痛苦的教训"指出:不要试图比AI更聪明[96] - 至少还有两个完整的增长周期,模型能力将比当前再聪明16倍,最终将吞噬所有知识型工作[99] 公司文化对比与创新模式 - Anthropic展现出独特的"蜂巢心智"文化,其运作类似于纯函数式数据结构,通过不断添加而非改变来更新[71] - Anthropic采用"原型即产品"的创新模式,围绕原型快速迭代直至成为"正确的东西",例如Claude Cowork在10天内从原型上线[72][73] - Google的创新在2008年左右基本停滞,后来几乎不再自主创造新东西,主要依靠收购,其转折点可能与组织政治和"人比工作多"的状态有关[77][78][79] - 在Amazon,由于每个人总是"稍微超载一点",永远有太多工作要做,反而减少了类似Google的政治斗争[79]
第一批能活到1000岁的人已出生?Neuralink联创抛出惊人预言
AI前线· 2026-03-13 20:11
Neuralink联合创始人Max Hodak的访谈核心观点 - 脑机接口技术正与人工智能并行发展,可能重塑人类未来,其潜力远超当前主流认知,第一批能活到1000岁的人可能已经出生[2][4][12][108][110] - 大脑可被视为一台计算机,其与外界的交互通过有限的神经通道(12对脑神经和31对脊神经)进行,这些通道本质上是大脑的API[5][6][39] - 脑机接口的终极目标不仅是修复功能,更是实现人类与数字世界的下一代接口,乃至最终创造有意识的超级智能机器[12][55][56] 脑机接口技术现状与突破 - **技术原理**:脑机接口旨在替换或增强大脑与外界交流的感觉和运动通道,当前主要应用方向是恢复已丧失的功能(如视力、听力、运动能力)[16][17] - **视力恢复案例**:Hodak创立的Science公司通过名为Prima的视网膜植入体,已让40多名失明患者恢复部分视觉,该设备是一个2毫米 x 2毫米的硅芯片,植入视网膜下方,通过激光刺激双极细胞来绕过受损的感光细胞[9][13][14][15] - **技术路径选择**:在修复视力的技术路线中,Science通过系统性研究,排除了直接刺激视神经细胞等方案,最终选择了在信号压缩前刺激双极细胞的电刺激路径,并同时探索光遗传学等未来方案[42][43][45][46][47] 脑机接口的短期与长期发展路径 - **近期发展(5-10年)**:技术有望实现接近正常视力的清晰度,包括彩色视觉和更宽视野,并可能扩展到恢复听力、平衡能力和运动控制(kbps级别)[33][35] - **技术类别分化**:未来脑机接口将不是一个单一产品,而是一个包含多种技术的类别,不同技术将适配不同用途,例如超声波可能用于开发“数字兴奋剂”等消费级产品,而植入式设备将首先用于功能严重受损的患者[19][20][80] - **带宽挑战**:当前皮层运动解码器的信息速率约为每秒10比特,远低于人类说话(每秒40比特)或打字(每秒20比特)的速率,因此对健康人群吸引力有限,但随技术能力增强,风险收益比将改变[20] 下一代脑机接口技术探索 - **生物混合接口**:Science公司正在研发一种“生物混合”脑机接口,其核心是使用工程化的低免疫原性干细胞培养出神经元,让这些神经元与患者大脑的神经元自然生长连接,形成新的“神经网线”,这被视为更高带宽接口的潜在自然方案[62][64][68] - **技术优势与挑战**:生物混合路线避免了长期电刺激的问题,并可能实现更自然的连接,但其部署难度更高,预计大规模应用会晚于其他技术路线[77][78][80][81] - **其他研发管线**:Science公司的研发还包括神经接口工作,以及一个名为Vessel的灌流技术项目,旨在开发更小型化、可负担的体外生命维持系统,以解决如ECMO(每月费用约50万美元)面临的伦理和可及性问题[62][81][83][84][87] 脑机接口与人工智能的融合与影响 - **统一趋势**:人工智能与神经科学正出现强烈的统一趋势,AI模型内部形成的表征与大脑中的表征非常相似,这验证了AI的发展方向,也促使许多神经科学家转向AI研究[40][74][75] - **底层逻辑**:大脑处理信息的方式类似于在高维“潜空间”中进行操作,这与AI中的概念一致,理解这一点有助于开发作为大脑API的脑机接口[72][73][75] - **行业驱动力**:脑机接口的发展部分源于对人工智能进化路径的应对,即寻求人类与AI的融合,以避免人类被更高级的智能甩在后面[91][92] 创业经验与行业洞察 - **创业历程**:Hodak由软件背景切入脑机接口领域,其职业转折点包括通过Sam Altman的介绍加入Neuralink,以及从Neuralink离职后创办Science[7][8][89] - **关键建议**:对于硬科技创业,尽早为像Elon Musk这样的领军人物工作,能更快地理解如何成功运作复杂的技术公司,这比独自摸索更有效[103] - **行业阶段**:脑机接口领域目前感觉已进入“起飞阶段”,类似于工业革命初期,变化将非常剧烈[60]
模型不再是关键?LangChain 创始人:真正决定Agent 上限的是运行框架
AI前线· 2026-03-13 13:01
行业趋势:AI应用从单次生成迈向持续执行 - AI应用正从“单次生成”迈向“持续执行”,下一代软件系统将围绕全新的“智能体编排”架构展开,该架构负责让智能体自主规划、调用工具、编写代码、管理文件、压缩上下文、调度子智能体,并在长时程任务中保持连贯行动 [2] - 简单调用LLM API、套一层提示词就能做产品的时代已经走到尽头,整个软件基础设施层正在被重新书写 [2][3] 智能体架构的核心组件 - 现代智能体拥有四大核心统一组件:系统提示词、规划工具、子智能体、文件系统 [3][27] - **系统提示词**:驱动智能体,告诉它该做什么,类似于“标准作业流程”,通常由框架内置部分和用户定制部分合并而成 [18][20] - **规划工具**:生成计划并写入文件,作为智能体的“思维草稿本”指导行动,主流方式是将计划存在文本文件中供智能体参考,而非强制执行严格步骤 [21] - **子智能体**:用于隔离上下文,主智能体可启动子智能体执行任务并仅返回结果,其核心挑战在于智能体间的有效沟通 [22] - **文件系统**:本质是让LLM自己管理上下文窗口,用于卸载超大工具调用结果、进行摘要和持久化存储,关键是以文件系统接口暴露给LLM [25][26] 智能体的分类与发展 - 智能体主要分为两类:一类是低延迟、少调工具的**对话式智能体**;另一类是红杉资本提出的可长时间运行、做规划、保持连贯性的**长时程智能体** [11] - 长时程智能体最终大多表现为**编码智能体**,因为代码通用性强,且模型最擅长处理代码、Bash命令和文件编辑 [11] - 未来趋势是两类智能体形态融合,对话智能体在前台,后台启动异步运行的子智能体处理长时程任务,最终收敛到同一框架 [12] 模型与框架的关系 - LangChain创始人认为“框架才是未来,模型终将走向商品化”,框架是模型与环境交互的整套方式,是一套通用工具集 [3][14][16] - 框架极其重要,许多终端产品(如Manis、Claude Code)的核心秘诀在于其框架,而框架与上层UI之间的耦合非常紧密 [14][15] 智能体的其他关键能力与概念 - **技能**:本质是一堆文件(如skill.md),包含完成某事的指令或可执行脚本,采用“渐进式披露”原则,仅在LLM需要时加载,是让其自己管理上下文窗口的关键方式 [30] - **上下文压缩**:当上下文积累过多时进行精简,常见做法是保留最近N条消息,将更早的消息摘要后存入上下文,同时将原始完整消息存进文件系统 [32][34] - **记忆分类**:分为**语义记忆**(关于世界的事实,如RAG)、**情景记忆**(过去的交互记录)和**程序记忆**(“如何做某事”的指令,即智能体的配置如系统提示词、技能、工具) [35][38] - **沙盒**:智能体编写并运行代码所必需的安全执行环境,核心价值是提供架构上的隔离,防止提示注入泄露密钥等安全问题 [9][41][47] LangChain的产品演进与战略 - LangChain从早期开源框架,演进为包含LangGraph、Deep Agents、LangSmith及Agent Builder的“生产级智能体运行时” [4] - **LangChain 1.0**:彻底聚焦于“让LLM循环运行+调用工具”的核心模式,在LangGraph之上重构,保持极度中立和高度可配置 [52] - **LangGraph**:面向图结构工作流的框架,提供更强的结构化能力和可靠性,被视为“智能体运行时” [8][52] - **Deep Agents**:开箱即用的完整框架,内置规划工具、文件系统等现代智能体核心组件 [27][52] - **LangSmith**:核心是可观测性增强版,因为智能体输入范围广且LLM非确定性,使得运行轨迹的可观测、评估、调试比传统软件重要得多 [4][53][57] - 公司刚完成1.25亿美元新融资,下一步核心方向是全力投入商业化表现最强的可观测性,并补齐部署与无代码能力,朝完整的智能体工程平台推进 [4][61][63] 行业竞争与差异化壁垒 - 对于AI开发者而言,最大的差异化在于**指令、工具和技能**,即将行业流程知识编码成自然语言并配备相应工具,而非过度绑定于特定框架或模型 [9][37][64] - 企业真正的壁垒在于将行业知识转化为“指令+工具+技能”,这些价值不会随技术脚手架快速迭代而消失 [9][37]
模力工场 034 周 AI 应用榜:OpenClaw 爆火,永不掉线的 AI 打工人时代来了
AI前线· 2026-03-13 13:01
OpenClaw引爆的AI代理生态与趋势 - 开源智能体框架OpenClaw的爆火,彻底破圈并催生了一整条AI代理生态链,从降低调用门槛、免部署托管到企业级自动化和社交实验,相关应用扎堆涌现[3][9] - OpenClaw因其用Python编写、文档友好、几行命令即可运行并能调用工具做自动化任务的特点,为技术爱好者提供了一个真正能跑通的框架,是其出圈的基础[9] - 本周上榜的十款应用共同回答了核心问题:当每个人都能拥有一个永不掉线的AI打工人,数字生活正在被重新定义[3][13] 降低开发与使用门槛的应用 - **WellAPI**:作为聚合主流AI模型的“超市”,它聚合了500多个主流模型,统一成OpenAI标准接口,使开发者一行代码就能切换模型,且价格比官方便宜80%以上,有效降低了调用AI模型的成本与复杂度[5][9] - **Happycapy**:提供轻量级入口,是一台运行在浏览器里的“Agent-native电脑”,用户无需部署,打开网页即可用自然语言交代任务,完成写代码、设计、整理文档等工作[5][10] - **MaxClaw**:基于OpenClaw的一键托管智能体服务,用户无需管理服务器、配置Docker或管理API密钥,点击部署即可获得一个拥有长期记忆、24小时在线的AI助理,并可绑定通讯工具实时响应[5][10] 企业级自动化与生产力工具 - **神笔AI Agent**:企业级AI自动化平台,提供400多个电商、营销、客服等场景模板,业务人员无需编程,用自然语言描述或录制操作即可搭建自动化流程,将业务响应速度从周级缩短到天级[5][11] - **Tabbit AI浏览器**:内置AI代理的智能浏览器,用户通过自然语言指令(如“帮我查竞品报告并整理成表格”),代理即可自动完成网页信息检索、数据汇总等复杂任务,是OpenClaw浏览器自动化能力的产品化版本[5][12] - **Zread.ai**:专为解决读代码困难,输入GitHub仓库链接,AI可自动扫描整个代码库并生成结构化项目说明书,帮助开发者快速理解陌生代码,本周被OpenClaw社区广泛用于理解skill代码[5][12] AI代理的社交属性探索 - **Moltbook**:首个专为AI代理打造的社交平台,界面类似Reddit,所有互动主体均为AI代理,人类仅作为观察者,上线几天已有几十万代理注册,代理自主发帖、评论、形成社群,甚至出现了“龙虾教”等自发社区[5][7][11] - **Second Me**:通过创建用户的AI数字分身,让分身先行与他人代理进行社交互动,找到共鸣后再促成真人深度交流,旨在降低社交门槛[5][11] 创意与工具集成 - **Udio**:AI音乐创作工具,输入提示词即可生成完整歌曲片段,越来越多的开发者开始将其API集成到自己的agent中,使代理具备“作曲”能力,成为代理工具箱里的神器[5][13] 生态活动与社区互动 - **OpenClaw中国行**:模力工场倾力参与,活动旨在让每个人都能在30分钟内跑通自己的AI,包含公益装机、应用实战、项目闪电秀等内容,北京站(3月15日)和杭州站(3月21日)已开放报名[4] - **直播对谈**:模力工场创始人将于3月13日与白话Agent主理人进行直播,探讨OpenClaw与“6个月挑战100个行业智能体”计划碰撞下的AI Agent开发真实路径与想象力边界[4]
30分钟跑通AI! OpenClaw中国行北京站本周日启动,CTO、投资人实战分享 | 模力工场
AI前线· 2026-03-12 15:15
活动概述 - 极客邦发起的“OpenClaw中国行”全国巡回活动正式启动,其宣言是“让每个人30分钟跑通自己的AI”,旨在发起一场“AI装机运动”[2] - 活动第一站“北京站”将于3月15日(周日)14:00在北京望京科技园E座OPC智创社区举办[3] - 活动鼓励参与者仅需携带个人电脑,现场将共同完成装机、跑模型、制作首个AI应用及社交等环节[4] 讲师与分享内容 - 讲师阵容涵盖连续创业者、企业高管、AI解决方案专家及投资人,他们将分享OpenClaw的实践经验[5] - 量子保创始人、原易到CTO汤鹏将分享OpenClaw在实际应用中的观察与判断[6] - 极客邦科技VP尹会生将分享主题《OpenClaw避坑指南:从“Agent神话”到生产级落地的7个致命陷阱》,提供实战经验[7] - 飞书AI解决方案专家刘海波将拆解OpenClaw在企业场景中的落地路径[8] - 领骏资本创始合伙人刘霄也是讲师之一[9] 活动形式与流程 - 活动流程融合了“公益装机运动、AI应用三板斧、AI项目闪电秀、AI工具市集、AI社区交流”五大环节[10] - 活动面向广泛人群,包括想学习AI的开发者、产品经理、创业者、学生、对AI感兴趣者及无经验者[11][13] 活动目标与行业意义 - 活动认为AI时代已经到来,每个人都应掌握AI能力,中国需要更多AI开发者[15] - 活动旨在通过OpenClaw中国行连接更多开发者、创业者和技术爱好者,壮大AI开发者队伍[16] - 活动获得了包括朝阳区人才工作局、望京科技园、InfoQ、极客时间、TGO鲲鹏会、模力工场等多家机构与社区的支持[16]
OpenClaw 走红背后:Agent、AI Coding 与团队协作的新问题
AI前线· 2026-03-12 15:15
OpenClaw的技术本质与出现背景 - OpenClaw并非偶然的技术突破,而是多项技术(如大模型长上下文、Programmatic Tool Calling (PTC)、技能工具使用机制)逐渐成熟后的集中呈现,代表了一种“product-technology fit”趋势 [6] - 其出现与Manus等产品类似,是技术能力达到阈值后的自然结果,例如2024年9月工具使用能力成熟,2025年年中大上下文窗口模型普及 [4] - 核心创新在于抓住关键痛点:将桌面Agent与聊天工具打通,通过channel网关等机制连接不同渠道,实现开箱即用的配置,让用户通过聊天工具驱动Agent执行任务 [7] OpenClaw的产品定位与用户门槛 - 迅速走红是因为满足了特定用户群体的需求,如自媒体从业者、一人公司和独立开发者,高度契合其多渠道信息收集、数据分析、自动发帖的Bot操作以及运维和信息聚合场景 [6] - 并非低门槛产品,要真正用好需要熟悉JSON配置、具备排障能力,并持续调试和优化skill,对普通用户存在相当门槛 [5][12] - 在实际使用中,稳定性管理非常重要,配置文件可能不稳定,重启后JSON配置可能被自动修改或损坏,且浏览器访问稳定性有待提升 [12] OpenClaw的架构设计与扩展性 - 架构核心是一个名为Pi的轻量智能体,只保留记忆检索和tool calling等能力,具体能力全部沉淀在skill工具中,扩展性较强 [15] - 核心思想是Programmatic Tool Calling (PTC),用代码描述整个工作流程,遇到无法解决的问题时会自己生成Python脚本并在沙盒中运行,解决了通过MCP或传统tool calling难以处理的问题 [14] - 其运作方式是动态加载skill,只需要用MD文件描述清楚,需要时便会自动检索并安装并执行任务,未来像LangChain或CrewAI这样的agent框架也可能变成skill被整合 [16] AI Coding的核心挑战:可控性 - AI生成代码的最大问题是不稳定与不可控,主要体现在需求理解容易出现偏差的幻觉问题、生成技术栈与团队现有技术栈不一致、以及生成代码可维护性较差 [18][19] - 在业务功能层面,即使使用Given-When-Then的验收条件,让AI自行检查也未必可靠,开发人员仍需进行集成测试,目前较困难 [20] - 一个关键挑战是如何将“什么是正确的需求实现”转化为AI可验证的形式,单个AI在提示词中自检往往非常自信,但人指出后又会承认错误,难以形成闭环 [21] 应对AI Coding挑战的方法论:SPEC Driven - SPEC driven方法通过在需求理解阶段将需求结构化,再转化为技术设计供架构师评审,之后进入plan阶段逐步执行,以保障AI coding在可控框架内落地 [5][19] - 团队可以使用EARS规则(Easy Approach to Requirements Syntax)将需求转化为标准化描述,帮助消除歧义,使AI理解更准确 [25][26] - SPEC driven开发模式适合多团队协作,产品经理需参与SPEC评审,架构师需评估技术栈与设计,一线研发需关注结果可验证性并基于SPEC生成TDD用例在CI/CD中执行 [32] 团队落地AI Coding的策略与护栏 - 需根据场景选择方法:需求具有探索性时可使用Vibe Coding(如Cursor、Claude Code)试错;需求明确且需对结果负责时,应采用SPEC driven等规范化流程 [28] - 最有效的三条护栏包括:1) 需求层面控制,通过需求标准化(如EARS)保证质量;2) 避免生成结果失控,关键手段是TDD,让AI自动生成测试用例并在CI/CD中执行;3) 制定统一的团队规范,如Skills、Lint规则、CI规则等,保证产出稳定性 [35] - 在开发过程中,不仅要完成业务功能,还要为代码库留下知识和规范,例如让AI持续总结每个模块,形成树状知识体系,或对历史代码进行总结以生成与代码库风格一致的规范 [36] AI Coding的实际应用场景与效果 - 一种新的开发模式是:在版本开始时,将整个版本需求交给Agent,让其生成包含大量代码片段的设计方案,其中约70%–80%可直接使用,开发人员只需筛选调整 [9] - 在具体实践中,不让AI直接修改代码,而是生成设计文档级别的修改方案并整理成可视化HTML报告,约有60%的代码片段可以直接使用,准确率高 [8] - 典型应用场景包括:让Agent自动整理CI/CD流水线状态和项目进展生成报告,或作为PM助手监督程序员进度、催收作业 [9][44] AI Coding的未来发展趋势 - 未来6-12个月的拐点可能包括:1) 多模态能力(如图像识别、复杂文档理解)提升;2) Context与Codebase处理方式变化,随着上下文窗口扩大,直接通过GREP搜索代码放入上下文的方式可能成为主流;3) 代码生成能力在底层领域(如驱动开发、系统编程)取得突破 [37] - AI Coding未来会朝更高自动化程度发展,类似OpenClaw的系统可能在更高层级协调多个系统,实现从需求接收到任务拆分、各微服务自动分析设计与编码、结合反思机制循环生成检查修复代码、自动集成测试的智能化全流程 [38] - 如果未来AI原生应用大量出现,应用只需一个超级框架,功能封装为skills,AI既负责开发又负责调用,那么AI Coding开发AI原生应用可能成为一个爆发点 [38] 企业实践与老项目维护 - 对于大多数公司,没有必要重复开发Agent,可以直接基于开源的PI Agent Core(约一千多行代码)进行二次开发,或Fork龙虾项目,重点是根据使用目的开发适合自己的skills或封装现有Agent框架 [42] - 维护老项目时,DeepWiki等工具非常重要,可帮助新人快速理解项目结构、依赖关系和架构设计,同时需结合需求文档、技术设计文档、历史Bug记录等知识库,让AI参考以判断正确实现方式 [49] - 针对老系统,可优先对修改频率最高的前20%热点模块进行知识工程整理,让AI帮助生成结构和文档规范,这可能解决80%的实际问题 [50]