vinext
搜索文档
Cloudflare:我们如何用 OpenCode 和 Claude,在一周内重构 Next.js
AI前线· 2026-03-14 13:33
vinext项目概述 - 一名工程师使用AI模型重构了流行的前端框架Next.js,创建了名为vinext的即插即用替代方案,基于Vite构建,可一键部署至Cloudflare Workers [2] - 该项目总成本约为1100美元的Token费用 [3] - 在包含33条路由的应用基准测试中,生产构建速度最高提升4.4倍,客户端打包体积(gzip压缩后)最高减少57% [2][14] Next.js的局限性 - Next.js是最流行的React框架,但部署到无服务器环境(如Cloudflare Workers、AWS Lambda)时存在适配问题,其工具链高度定制化 [4] - 现有解决方案如OpenNext需要对Next.js构建输出进行逆向工程,过程脆弱且易受版本变更影响 [5] - Next.js的一等适配器API仍处早期阶段,且开发环境(`next dev`)无法接入非Node.js运行时,限制了平台特定API的测试 [6] vinext的技术方案与优势 - vinext选择基于Vite重新实现Next.js的API,而非适配其输出,这是一次干净的重新实现 [8] - 它提供与Next.js相同的命令(`dev`, `build`, `deploy`),并完整实现了路由、服务端渲染、React Server Components等API [10][11] - 其架构优势在于利用Vite Environment API,使构建输出可在任意平台运行 [11] - 初步基准测试显示,使用Vite 7/Rollup时生产构建时间为4.64秒,比Next.js快1.6倍;使用Vite 8/Rolldown时仅需1.67秒,快4.4倍 [14] - 客户端打包体积从Next.js的168.9 KB降至74.0 KB(Rollup)和72.9 KB(Rolldown),分别减小56%和57% [14] - Vite 8中基于Rust的打包器Rolldown展现出结构性性能优势 [15] 部署与平台集成 - vinext以Cloudflare Workers为首要部署目标,支持`vinext deploy`一键部署 [17] - 内置Cloudflare KV缓存处理器,开箱即用支持增量静态再生(ISR),且缓存层可插拔 [18] - 应用在开发和部署阶段均运行在`workerd`中,可无妥协地使用Durable Objects、AI绑定等所有Cloudflare专属服务 [19] - 项目约95%的代码与Cloudflare无关,公司希望与其他托管服务商合作,扩展部署目标 [21] 项目当前状态与功能 - vinext目前处于实验阶段,诞生不到一周,尚未经过大规模真实流量检验 [22][23] - 测试套件完备,包含超过1700个Vitest测试与380个Playwright端到端测试,对Next.js 16 API的覆盖率达到94% [23] - 已有真实客户National Design Studio在生产环境使用,用于构建CIO.gov测试站点 [23] - 目前开箱即支持ISR,但暂不支持构建时静态预渲染(如`generateStaticParams`),该功能已列入路线图 [26][27] - 公司提出了“流量感知预渲染”实验性功能,计划根据Cloudflare区域分析数据,只预渲染被实际访问的关键页面,以优化大型站点构建效率 [30][31] AI在开发中的角色与影响 - 该项目由一名工程师(工程经理)指导AI在不到一周内完成,早期尝试通常需要团队耗费数月或数年 [33][34] - 项目成功归因于多个因素:Next.js API定义清晰、文档完善、测试套件全面;Vite提供了优秀的基础框架;AI模型能力已能处理复杂逻辑并保持连贯性 [37][38] - 几乎每一行代码都由AI编写,并遵循了与人工编写相同的质量标准,项目建立了包含测试、类型检查和代码检查的完善质量保障机制 [40] - 开发流程高度依赖AI:定义任务后,由AI编写实现与测试,运行测试并通过反馈循环迭代修复 [42] - 项目期间在OpenCode中运行了800多个会话 [43] - 此案例表明,AI能够理解整个系统并直接编写代码,可能改变软件中为人类认知服务的抽象层次结构 [44] 迁移与后续计划 - vinext提供了一个用于处理迁移的Agent Skill,可集成到多种AI编码工具中,辅助进行兼容性检查、依赖安装和配置生成 [45][46] - 项目是开源的,公司欢迎来自其他平台的贡献,以扩展部署目标并确保项目的长期发展 [21][47]
腾讯研究院AI速递 20260226
腾讯研究院· 2026-02-26 00:01
一、千亿AI芯片巨单!AMD拿下Meta超600亿美元算力合作 - Meta与AMD达成重磅合作,将部署最高6GW的AMD Instinct GPU,整体规模据华尔街日报估计超过1000亿美元,Meta将分阶段获得AMD约10%的股份 [1] - 合作核心是基于MI450架构的定制版GPU,遵循“Workload First”原则无需额外流片,底层软件100%通用,计划于2026年下半年开始出货 [1] - Meta基础设施主管表示“单一芯片无法满足所有负载”,其AI算力策略是英伟达、AMD和自研MTIA芯片各有定位,头部AI公司正加速寻求算力多元化以降低供应链风险 [1] 二、Claude Code新增Remote Control,手机远程遥控编程 - Anthropic为Claude Code新增Remote Control功能,用户可通过浏览器或手机远程连接本地运行的Claude Code项目,实现移动端实时查看和操控 [2] - 支持两种启动方式:新建远程会话(claude rc)或在现有对话中输入/rc带入历史上下文,可通过扫码、URL或claude.ai/code列表进行连接 [2] - 与Claude Code on the Web的区别在于:Remote Control模式下代码在本地执行、手机仅作为遥控器,保留了MCP server和本地工具链;而on the Web模式则在云端虚拟机中运行 [2] 三、Anthropic更新Cowork插件系统,零基础定制企业级工具 - Anthropic更新Claude Cowork插件系统,用户可通过对话式引导从零开始定制AI插件,首批上线了HR、设计、工程、投行等10个垂直领域的官方模板 [3] - 插件深度集成Slack、Salesforce、Excel等企业工具,支持跨应用上下文贯通,企业管理员可搭建私有插件市场并对接GitHub仓库实现团队级部署 [3] - 新增OpenTelemetry支持以实现AI投入产出的量化,Anthropic正从工具转向平台,致力于将“经验即服务”的插件模式打造为企业AI基础设施的入口 [3] 四、xAI的Grok视频模型46.5万次盲测封王 - xAI的Grok图像转视频模型以1404分的ELO评分登顶Image-to-Video Arena排行榜第一,基于46.5万次盲测投票,超越了谷歌Veo 3.1等34个模型 [4] - Grok Imagine 1.0支持生成10秒720p视频并带有原生音频,具备文本生图视频、图片动画化和零门槛视频编辑三大能力,其API定价约为4.20美元/分钟,低于竞品 [4] - 该模型在指令遵循、电影级镜头控制和唇形同步上表现突出,同时在质量、延迟与成本的综合平衡上领先,并支持多轮交互式创作 [4] 五、阿里开源千问3.5-Flash三款中等规模模型,高稀疏MoE - 阿里开源了千问3.5系列的三款模型:Qwen3.5-35B-A3B、122B-A10B和27B,其中35B-A3B模型已超越前代更大规模的Qwen3-235B-A22B模型 [5][6] - 模型采用混合注意力机制和高稀疏MoE架构,在指令遵循、博士级推理、Agent工具调用、Agentic Coding等多项权威榜单上刷新了开源SOTA [6] - Qwen3.5-27B为首个密集模型,在工具调用和编程方面超越GPT-5 mini,视觉理解超越Claude Sonnet 4.5,可运行于单GPU;其Flash版本API每百万Token仅需0.2元 [6] 六、MiniMax推出MaxClaw模式,一键部署并上线万级专家库 - MiniMax在其Agent平台推出MaxClaw模式,对OpenClaw实现一键配置,预置了爆款猎手、多Agent投研等工具组合和生图生视频等内置技能,20秒即可启动 [7] - 其Expert社区已积累超过10000个公开专家智能体,覆盖技术开发、创意写作、金融分析等垂直领域,用户可通过自然语言对话零代码创建专属智能体 [7] - 公司未来还计划开设MarketPlace交易市场,供用户挂牌定价销售自己创建的Expert智能体 [7] 七、Cloudflare工程师一周重写了Next.js,仅花1100美元 - Cloudflare工程师借助AI在一周内从零重建了名为vinext的Next.js替代框架,基于Vite构建,约800次AI会话消耗了价值1100美元的tokens,其生产构建速度最快可达Next.js的4倍 [8] - 客户端bundle大小比Next.js缩小了约57%,已通过1700多个单元测试和380多个E2E测试,覆盖了94%的Next.js API,部分客户已将其用于生产环境 [8] - 该案例证明AI在架构规范明确、基础工具成熟的条件下可主导大型系统级实现,软件中许多为帮助人类管理复杂性而存在的抽象层正面临重新定义 [8] 八、五角大楼极限施压Anthropic,要求限期解除AI安全限制 - 美国国防部长向Anthropic CEO下达最后通牒,要求其在周五前全面解除Claude在军事机密系统中的安全限制,否则将动用《国防生产法》或将其列为“供应链风险” [9] - xAI的Grok已完全接受军方条件进入机密系统,谷歌和OpenAI也在紧锣密鼓接洽,多方替代方案构成了对Anthropic的极限施压筹码 [9] - Anthropic同步发布了RSP 3.0,正式放弃了“单方面暂停训练”的承诺,从“绝对风险”评估转向“边际风险”评估,其首席科学官坦言“停下脚步而竞争对手全速前进对任何人都没有好处” [9] 九、2028推演长文阅读千万:AI越繁荣,经济越萧条的负循环 - CitriniResearch发布的《2028年全球智能危机》推演长文阅读量破千万,构想Agent大规模普及后将形成“AI能力提升 → 裁员 → 消费萎缩 → 企业购买更多AI”的负反馈循环 [10] - 文章预警白领占美国就业半数并驱动四分之三的可选消费,Agent消灭交易摩擦将击穿SaaS、中介、支付等平台层,劳动收入占GDP比重可能从56%降至46% [10] - 风险可能经由私募信贷蔓延至13万亿美元的房贷市场,旧金山房价已同比下跌11%,危机的核心在于AI能力按季度加速而制度适应按议程表推进,速度差构成了系统性风险 [11]