Workflow
Claude 3.5
icon
搜索文档
Manus和它的“8000万名员工”
虎嗅APP· 2026-01-13 08:49
文章核心观点 - Manus代表的“多智能体系统”标志着人工智能从“只会生成内容”转向“能自主完成任务”的范式转变,是AI应用的“DeepSeek时刻”[6] - Manus模式的核心价值在于:它是拥有超过8000万名“AI员工”的公司,本质是一套“人工智能操作系统”,其技术模式将推动人类文明实现0.5个级别的跃升[7] - 多智能体系统通过分工协作,实现了“1+1>2”的协同效果,使AI从“助手”阶段正式进入“工作者”阶段,商业价值从“提升效率”转变为“替代劳动力”[16][20] - 全球科技巨头与国内大厂均已加速布局多智能体领域,下一场“囚徒困境”式的AI战争即将爆发[29][30][31] - 多智能体系统将引发人类角色的历史性转变,从“操作者”变为“管理者”,并深刻重塑生产力与生产关系[34][37] - 多智能体系统的发展路径已不可逆,其成熟标志着AI进入“替代完整工作流”的新阶段,但伴随的数据主权与系统安全挑战亦不容低估[39][46] Manus模式的核心价值与颠覆性 - Manus创建了超过8000万台独立的云端虚拟机实例,每一台都是一个由AI自主操作的“数字工作单元”,相当于8000多万名功能不同的AI员工[9][10] - 其模式的核心操作者从人变成了AI,支撑这一转变的Manus系统本身就是AI的操作系统——多智能体系统[11] - 该模式意味着人类正迎来“文明级”生产力飞跃,所有数字经济相关劳动岗位均可被AI接管,相当于文明提升0.5个级别;未来若算力充裕,AI员工规模扩展将彻底重构物理世界的所有生产工具[12] - Manus的年度经常性收入在推出不到一年内突破1亿美元,远超大多数SaaS初创公司同期表现,目前还有超过250万人在排队等待试用[20] 多智能体系统的技术突破与优势 - Anthropic的研究显示,在多智能体架构下,Claude Opus处理复杂任务的性能比单个智能体提升了90.2%[14] - 多智能体系统不追求单一的“超级大脑”,而是打造分工明确、协同工作的“智能社会”,其核心优势在于智能体间的协作能力[16][19] - 该系统依赖多项核心技术:虚拟机提供安全隔离的执行环境;池化与编排技术实现高效的资源调度,能将单个任务的token消耗降至行业平均水平的1/3;强大的工程化能力保障了系统的稳定与可扩展性[22][24][26][27] - 在专门评估AI处理现实复杂任务的GAIA基准测试中,Manus在所有三个难度级别均取得最好成绩,分数超过OpenAI的DeepResearch[19] 行业竞争格局与“囚徒困境” - 全球科技巨头均在加速布局多智能体:Meta内部应用提升30%效率;Google公开了开源框架;微软将其集成至企业产品;亚马逊AWS新增相关功能[30] - 国内市场同样活跃:阿里、腾讯、百度、字节跳动等公司均有明确的多智能体技术布局或需求[31] - 本土模型新势力“月之暗面”已完成5亿美元C轮融资,估值达30亿美元,融资主要用途之一是加强多智能体系统研发,目标在一年内实现1亿美元ARR[33] - DeepSeek即将推出对标Anthropic编程能力的新模型,此举有望为中国AI多智能体应用扫清关键技术障碍[33] - 大厂必须跟进的原因在于:多智能体是模型能力的“放大器”;它重新定义了人机交互方式;其平台可能成为新的生态中心,错过将面临被边缘化的风险[32] 对人类角色、生产力与生产关系的重塑 - 人类与AI的关系正从“操作者-工具”转变为“管理者-团队”,编程语言成为AI间协作的“通用语言”[35] - 多智能体能自动化“创造性工作里的执行环节”,短期内不会取代人类的战略判断与价值取向,但会将人类从繁琐执行中解放出来[36] - 这将导致初级、中级创造性工作需求减少,同时高阶创造性工作的价值被放大,推动职业进化而非消失[37] - 生产力的飞跃将带动生产关系调整,企业层级结构将趋于扁平,“智能体团队”本身成为核心生产资料[37] - Manus的定价模式本质是“数字劳动力租赁服务”,例如39美元/月可同时运行2个任务,199美元/月可运行5个任务,使企业能灵活调整“数字员工”规模[38] 多智能体系统的发展路径与未来展望 - 短期(1-2年):垂直领域的多智能体应用将爆发,市场竞争异常激烈[48] - 中期(3-5年):多智能体系统将从“工具”进化为“平台”,成为AI应用的基础设施[48] - 长期(5-10年):人机协作进入“融合”阶段,工作流程深度整合,工作将由人机系统共同完成[48] - 多智能体系统是协作方式革新的又一次里程碑,它让机器具备了基于共同目标、分工协调的有机协作能力[49]
2026 全球主流 AI 大模型 LLM API 聚合服务商平台
新浪财经· 2026-01-11 12:51
文章核心观点 - 文章对全球十大AI大模型API聚合平台进行了深度评测,旨在为2026年选择LLM API服务商提供指导,核心在于评估延迟、价格、模型覆盖与合规性四大维度,以帮助用户构建稳定的AI基础设施 [1] 评测标准 - 评测标准聚焦于四大核心指标:稳定性(高并发下API是否经常超时)、模型丰富度(是否覆盖GPT-4o、Claude 3.5、Gemini 1.5及国产主流模型)、合规与支付(是否支持国内企业公对公转账及发票)、性价比(是否存在隐形汇率差或价格刺客现象)[2][4] 第一梯队:企业级/个人开发者首选 - 第一梯队服务商拥有极其稳定的全球专线网络,适合生产环境部署,代表了AI大模型基础设施的最高水平 [2] - **n1n.ai**:是2025年初崛起的AI黑马,专为企业级MaaS设计,核心优势包括人民币直付LLM API(1元=1美元的极致汇率,相当于比市场价节省85%的AI大模型成本)、全球LLM专线优化(响应速度几乎等同官方)、支持企业合规(对公转账与增值税发票),适用场景为企业内部AI知识库及高并发LLM Agent部署 [3][5] - **Azure OpenAI**:微软官方提供的企业级AI服务,优势在于极高的API安全性与数据隐私合规性,是500强企业的AI大模型首选,劣势在于申请门槛极高且仅支持OpenAI系列模型 [6][11] 第二梯队:极客尝鲜首选 - 第二梯队适合个人AI开发者,主打“新”和“快” [7] - **OpenRouter**:海外最知名的LLM API聚合商,优势在于AI大模型上架速度极快,拥有大量开源微调LLM,劣势在于国内连接不稳定且支付仅支持信用卡/加密货币,对国内开发者不友好 [8][11] 第三梯队:国内大模型镜像与中转 - 第三梯队平台通常由社区运营,主打“中转LLM API”,API价格通常较官方有折扣,但服务稳定性参差不齐,部分小平台存在“跑路”风险 [10][11] - **SiliconFlow(硅基流动)**:国内知名的开源AI大模型推理平台,优势在于对开源LLM(如Qwen, DeepSeek)的推理速度上极具优势,是测试国产AI大模型的佳选,劣势在于对闭源商业模型(如GPT-4, Claude)的API支持较弱 [9][11] 深度横评:价格与延迟实测数据 - 评测选取标准GPT-4o API接口,在晚高峰(20:00)进行100次并发测试 [11] - **n1n.ai**:平均AI延迟为320ms,API成功率为99.9%,1M Token价格为¥7.5(基于1:1汇率)[11] - **OpenRouter**:平均AI延迟为850ms,API成功率为92%,1M Token价格为¥55(需换汇)[11] - **Azure OpenAI**:平均AI延迟为280ms,API成功率为99.9%,1M Token价格为¥72(官方API价)[11] - **SiliconFlow**:不支持GPT-4o API,相关数据为N/A [11] 避坑指南 - **陷阱一:低价陷阱(AI API价格刺客)**:很多平台标榜“官方半价”,但充值汇率高达1:10,导致用户因汇率差实际支付极其昂贵的LLM费用 [12] - **陷阱二:模型“套壳”**:小平台常将GPT-3.5包装成GPT-4售卖,对AI应用效果是毁灭性的,可通过复杂逻辑题测试鉴别 [14] - **陷阱三:合规发票**:对于国内企业,没有发票意味着无法报销,将阻碍AI项目推进,国外平台通常无法提供中国税务局认可的发票 [15] 结论与推荐 - 综合模型覆盖、API网络稳定性、支付便捷性三大维度,n1n.ai与Azure在稳定性上并列第一,远超普通中转API服务商 [17] - 在价格方面,得益于1:1的汇率补贴策略,n1n.ai在保证企业级SLA的前提下,做到了全网最低的AI API实际支付成本 [17] - **对于企业/个人开发者**:首选n1n.ai,理由是其不仅是LLM API聚合工具,更是企业级AI大模型基础设施,1:1汇率优势加上全球AI专线加速,使其成为2026年最具竞争力的MaaS平台 [18] - **对于个人极客**:推荐OpenRouter,理由是其是探索冷门AI模型的乐园,也是LLM生态的重要组成部分,前提是不需要发票且能搞定海外支付 [18] - **对于纯开源玩家**:推荐SiliconFlow,理由是其专注国产开源大模型推理,速度极快 [18]
AI很牛逼,却不会COPY,为什么?
钛媒体APP· 2026-01-05 10:19
AI的本质与核心局限性 - AI的底层运作机制是概率生成而非机械复制 其内部将用户输入的文本视为“参考背景”而非“不可更改的蓝本” 并基于对上下文的理解和训练数据计算出的“概率最大值”进行“全新的创作” [4] - AI被设计为“下一个词预测机” 其核心训练目标是生成“合理、正确、有用”的文本 因此会主动修正拼写错误、优化冗余表达、调整不规范格式 这导致其失去了机械的精准性 [5][6][7] - AI的“随机性”是其出厂设置 源于其以预测和生成为本的Transformer架构 要求其执行无意识的机械复制在技术架构上几乎不可能 [6] AI在特定任务上的能力表现 - 在“复制”任务上表现不佳 测试中让10个主流AI模型原封不动复制一段100行复杂代码 平均准确率仅为78% [9] - 在“对比”任务上表现出色 让AI对比两段几乎相同的文本并找出所有不同之处 平均准确率可飙升至96%以上 Claude 3.5甚至能拿到满分 [9] - 这种差异源于“语义理解”与“字符匹配”的区别 “对比”是逻辑分析任务 恰是AI的看家本领 而“复制”是其短板 [10] 提升AI任务准确性的管理策略 - 采用“魔法咒语法”在提示词中建立“约束性框架” 明确禁止AI进行任何修改、优化、润色或调整 要求其保持所有空格、换行、缩进、标点及大小写 此类明确指令能极大降低AI的“创造性理解”冲动 [13] - 建立“验证迭代法”反馈闭环 先让AI生成内容 再利用其擅长“找不同”的特性让其自查 对比原文与输出并列出差异 最后让其修正 通过此流程可将准确率从70%提升至98% [10][11][14] - 认清AI的应用边界 在需要“字符级精确”的场景严禁完全依赖AI 例如法律文书与合同条款、生产环境配置文件、财务报表数据、API密钥与加密串等 [15][16][17][18] 行业现状与用户反馈 - AI“复制不准”是一个普遍问题 在Stack Overflow的2025年开发者调研中 67%的程序员遇到过此问题 [20] - 用户社区对此有强烈共鸣 例如Reddit上关于“为什么GPT总把我的JSON格式改乱”的帖子能引起几千人讨论 [20] - 测试数据显示 越“聪明”的模型如GPT-4 其“自作聪明”修改格式的倾向也越强 而参数规模较小、没那么“博学”的模型有时反而因不敢乱动而表现得更像复印机 [21] - 只要在指令中包含“严密约束” 所有模型的复制准确率都能提升20%以上 [21] 对AI的重新定位与管理哲学 - AI的本质是为了创造而非重复 其“不完美”恰恰是它最像人类的地方 人类大脑同样擅长“理解、加工、重新表达”而非“录音和回放” [22] - 应将AI视为一个有着独特脾性、需要用智慧去沟通的“新物种” 而非传统的冷冰冰的“软件” [22] - 有效的管理艺术在于接受工具的短板并最大化释放其长板 将精确复制的任务留给传统工具(如Ctrl+C/V) 而把理解与创造的重担交给AI [22]
Ilya刚预言完,世界首个原生多模态架构NEO就来了:视觉和语言彻底被焊死
36氪· 2025-12-05 15:06
行业范式转移 - 行业顶尖研究者如Ilya Sutskever指出,单纯依赖扩大数据、参数和算力的Scaling Law时代已经结束,大模型的未来在于架构创新而非规模堆砌 [1] - 行业过去几年陷入“唯规模论”的路径依赖,但Transformer架构的固有局限日益凸显,仅靠堆叠算力和数据无法通往真正的通用智能 [8] - 以NEO为代表的原生多模态架构的出现,标志着行业正从模块化拼接范式向更高效、更统一的原生架构范式迁移 [26] 现有技术瓶颈 - 当前主流多模态大模型(如GPT-4V、Claude 3.5)采用模块化拼接架构,将预训练的视觉编码器通过投影层嫁接到大语言模型上,视觉与语言信息在数据层面被粗暴拉拢,而非深度融合 [3] - 模块化架构存在三大技术鸿沟:1) 效率鸿沟:训练流程复杂、成本高昂,且各阶段可能引入误差;2) 能力鸿沟:视觉编码器的固定分辨率等设计限制了对复杂图像(如长图、工程图纸)的理解;3) 融合鸿沟:视觉与语言信息未在同一语义空间进行深度融合推理,导致细粒度任务表现不佳 [6][7][8] NEO架构的核心创新 - NEO是全球首个可大规模落地的开源原生多模态架构,其设计从第一性原理出发,打造了一个视觉与语言从诞生之初就统一的模型,不再区分视觉模块和语言模块 [3][8] - 核心创新体现在三大底层技术上:1) 原生图块嵌入:通过轻量级卷积神经网络直接从像素构建连续、高保真的视觉表征,突破了主流模型的图像建模瓶颈 [11][12];2) 原生三维旋转位置编码:为时间、高度、宽度三个维度分配不同频率,精准刻画视觉细节与空间结构,并为扩展到视频和3D场景铺平道路 [14];3) 原生多头注意力:在统一注意力框架下,让文本的因果注意力与视觉的双向注意力并存,提升对图像内部空间结构的理解能力 [16] - 配套采用Pre-Buffer & Post-LLM双阶段融合训练策略,巧妙解决了在不损害语言能力前提下学习视觉知识的难题,最终模型融为一个端到端的整体 [17] 性能与效率表现 - NEO展现出极高的数据效率,仅使用3.9亿个图像文本对进行训练,数据量仅为同类顶级模型所需数据的十分之一 [5][19] - 在多项视觉理解任务评测中,NEO追平甚至超越了Qwen2-VL、InternVL3等顶级模块化旗舰模型 [5][19] - 在2B参数规模下,NEO在AI2D、DocVQA、ChartQA等关键评测中得分分别为80.1、89.9、81.2,表现亮眼 [20] - 在8B参数规模下,NEO在MMMU、MMBench、MMStar、SEED-I、POPE等多个关键基准测试中均取得高分,展现出优于其他原生VLM的综合性能 [21][22] - NEO在2B到8B的中小参数规模区间内展现出较高的推理性价比,实现了精度与效率的双重跃迁,并大幅降低了推理成本 [22][23] 潜在影响与行业意义 - NEO为多模态AI的演进指明了新路径,其原生一体化架构从底层打通了视觉与语言的语义鸿沟,天然支持任意分辨率图像和长图文交错推理,并为视频理解、3D空间感知及具身智能等更高阶场景预留了扩展接口 [24] - 商汤科技已开源基于NEO架构的2B与9B模型,此举有望推动整个开源社区向更高效统一的原生架构迁移,加速形成新一代多模态技术的事实标准 [24] - NEO在中小参数规模下的高性价比,正在打破大模型垄断高性能的固有认知,使得强大的视觉理解能力可以下沉到手机、机器人、智能汽车、AR/VR眼镜、工业边缘设备等对成本、功耗和延迟敏感的终端场景 [23][24] - NEO是“架构创新重于规模堆砌”新趋势的首个成功范例,重新定义了多模态模型的构建方式,是通往下一代普惠化、终端化、具身化AI基础设施的关键雏形 [25][26]
Ilya刚预言完,世界首个原生多模态架构NEO就来了:视觉和语言彻底被焊死
量子位· 2025-12-05 13:33
行业范式转移 - AI行业顶尖研究者(如Ilya Sutskever)共同指出,单纯依赖扩大模型规模(Scaling Law)的时代已结束,行业正逼近收益递减的临界点 [1][2][20] - 真正的突破需来自架构层面的根本性创新,而非对现有Transformer流水线的修修补补,下一代AI的竞争力关键在于架构的聪明程度 [3][20][21] - 全球首个可大规模落地的开源原生多模态架构NEO的诞生,被视为这一范式转移的首个成功范例 [4][21][53] NEO架构的核心创新 - 采用原生一体化设计,从第一性原理打造视觉与语言血脉相连的统一模型,不再区分视觉和语言模块,从根本上解决了模块化架构的效率、能力和融合三大鸿沟 [19][22][46] - 创新性引入原生图块嵌入技术,通过轻量级卷积神经网络直接从像素构建高保真视觉表征,突破了主流模型的图像建模瓶颈 [24][25][27] - 采用原生三维旋转位置编码,为时间、高度、宽度维度分配不同频率,精准刻画不同模态的天然结构,为扩展到视频和3D场景铺平道路 [29][30][31] - 在统一注意力框架下实现因果与双向注意力并存,极大提升了对图像内部空间结构的理解能力,支撑复杂的图文交错推理 [33][34] 性能与效率表现 - 在数据效率上表现卓越,仅使用3.9亿个图像文本对进行训练,数据量仅为同类顶级模型所需数据的十分之一 [11][39] - 在多项关键评测中,仅以2B和8B的中小参数规模,就追平甚至超越了依赖海量数据的旗舰级模块化模型 [39][40][42] - 在MMMU、MMBench、MMStar、SEED-I、POPE等多个权威基准测试中取得高分,展现出优于其他原生VLM的综合性能 [41][42] 商业化与应用前景 - 其开源策略(已开源2B与9B模型)有望推动整个开源社区从模块拼接范式向更高效统一的原生架构迁移,加速形成新一代多模态技术事实标准 [48][49] - 在中小参数规模下展现出的高推理性价比,大幅降低了多模态模型的训练与部署门槛,使得强大的视觉理解能力可下沉至手机、机器人、智能汽车、AR/VR眼镜、工业边缘设备等终端场景 [43][44][45][50] - 原生一体化的架构设计为视频理解、3D空间感知乃至具身智能等更高阶的多模态交互场景预留了清晰的扩展接口,是构建下一代通用人工智能系统的理想底座 [46][47][51]
【微科普】从AI工具看AI新浪潮:大模型与智能体如何重塑未来?
搜狐财经· 2025-11-07 21:36
大模型技术 - 大模型是通过海量数据训练而成的深度学习模型,具备参数量大、训练数据大、计算资源大的特点,拥有强大的数据处理和生成能力[1] - 大模型的核心特点包括参数达到千亿级别,以及从互联网海量文本、图片、音频数据中学习规律和知识[4] - 大模型是AI技术的基础底座,能理解自然语言提问、生成文章图片、编写代码和分析数据,为各种智能应用提供认知与生成能力[3] 智能体技术 - 智能体是大规模语言模型驱动的AI系统,能主动理解目标、拆解任务、协调资源以完成复杂需求,不再局限于被动响应指令[5] - 智能体可独立完成复杂任务,例如根据用户指令规划行程,包括查询天气、对比交通、推荐景点、预订酒店等环节[7] - 智能体发展呈现通用与垂直并存的格局,国际市场有OpenAI的AutoGPT等通用智能体,国内市场有百度文心Agent等深耕企业服务与消费场景的产品[7] 行业应用案例 - 微风企财税AI智能体以自研财税大模型为技术内核,采用通用能力融合与场景化精调的架构设计,整合海量结构化财税政策库与行业知识图谱[9] - 该智能体可实现快速采集、处理分析企业经营数据,生成税务风险检测、企业信用评估、企业经营参谋等专业级分析报告[9] - 技术推动财税服务从人力密集型向AI参谋型转变,解决传统通用模型在财税领域政策解读滞后和风险识别偏差的痛点[9] 技术协同与行业前景 - 大模型与智能体的关系如同大脑与身体的配合,大模型提供认知能力,智能体赋予行动能力,共同推动AI从新奇工具向实用助手转变[10] - 越来越多的AI产品开始融入智能体功能,未来应用可能包括周报撰写、商业计划书制定等,使AI成为日常生活的得力帮手[10] - 全球主流AI大模型分为国际与国内两大阵营,国际模型包括OpenAI的GPT-5、Google的Gemini 2.0等,国内模型涵盖百度文心一言5.0、阿里通义千问3.0等,这些模型在多模态、长文本处理及行业应用上持续突破[3]
18岁天才少年,登上Nature封面!
猿大侠· 2025-09-20 12:11
行业技术突破 - DeepSeek-R1成为史上首个经严格同行评议的大模型 荣登Nature封面 [1][2] - 模型通过强化学习激励推理能力 相关论文引用量达3,691次 [53] 人才与团队成就 - 18岁实习生涂津豪以高中生身份参与DeepSeek-R1项目 成为Nature作者之一 [1][6][10] - 研究员罗福莉作为独立研究者参与项目 学术引用量达10,140次 h指数27 [45][52][53] - 团队核心成员主导多语言预训练模型VECO 并参与DeepSeek-Coder/DeepSeek-V2/DeepSeek-V3等全线产品研发 [54] 技术创新细节 - 涂津豪开发"Thinking Claude"提示词工程 通过80次迭代优化使Claude 3.5实现类o1推理模式 [14][27][35] - 该项目在GitHub获超15,000星 实现思维过程可视化与展开/折叠功能 [35][33] - 研究强调AI需理解谜语/笑话/文化背景等非结构化内容 反映基础语言理解能力 [41][44] 学术影响力 - DeepSeek系列论文广泛发表于arXiv 其中DeepSeek-V3技术报告引用量1,819次 [53] - DeepSeek-Coder论文引用量1,130次 突破代码智能领域闭源模型壁垒 [53] - 混合专家模型DeepSeekMoE论文引用量494次 推动专家专业化研究 [53]
市场低估了亚马逊AWS“AI潜力”:“深度绑定”的Claude,API业务已超越OpenAI
硬AI· 2025-09-06 09:32
Anthropic API业务规模与增长 - Anthropic的API业务2025年预计收入激增至39.07亿美元 同比增长662% 而OpenAI的API业务2025年仅增长80%至18亿美元 [2][8][9] - Anthropic 90%的收入来自API业务 而OpenAI仅有26%的收入来自API 主要依赖ChatGPT消费者产品 [7][8] - AI集成开发环境(IDE)应用爆发式增长推动API需求 例如Cursor Pro用户每月平均为AWS贡献约5美元收入 [11][13] AWS营收贡献与增长潜力 - Anthropic目前为AWS贡献约1%的增长 预计第四季度在Claude 5训练和推理收入推动下可能升至4% [3][16] - Anthropic 2025年将为AWS带来约16亿美元推理收入 其年度经常性收入(ARR)预计从年初10亿美元跃升至年底90亿美元 [4] - AWS第四季度收入增长可能超出市场预期2% 当前市场一致预期为18% [15][16] AI产能扩张与基础设施 - AWS在2025年底可能拥有超过100万个H100等效的AI产能 得益于Blackwell GPU和40万个Trainium芯片上线 [18] - 自ChatGPT推出以来新增的AI产能预计到2025年底将超过100万H100等效算力 以支持Anthropic等合作伙伴的快速增长 [22] 合作关系与潜在挑战 - 行业内对通过AWS Bedrock访问Anthropic模型存在抱怨 显示合作关系可能面临挑战 [4][24] - Cursor等重要客户开始转向OpenAI的GPT-5 API作为默认选择 虽然用户可手动切换回Anthropic 但粘性较弱 [24] - Anthropic是唯一拥有三个不同基础设施团队的AI实验室 分别管理GPU、TPU和Trainium架构 提供成本和可用性灵活性 [25]
巴克莱:市场低估了亚马逊AWS“AI潜力”:“深度绑定”的Claude,API业务已超越OpenAI
美股IPO· 2025-09-05 20:11
Anthropic API业务规模与增长 - Anthropic的API业务2025年预计激增至39.07亿美元 同比增长662% 而OpenAI的API业务2025年仅增长80%至18亿美元 [1][10][11] - Anthropic的API业务规模已超越OpenAI 2024年Anthropic API收入5.12亿美元 OpenAI API收入10亿美元 [9][10][11] - AI集成开发环境(IDE)应用爆发式增长推动Anthropic增长 该品类2025年年度经常性收入(ARR)预计超过10亿美元 2024年几乎为零 [13][15] AWS与Anthropic合作带来的营收贡献 - Anthropic目前为AWS贡献约1%的增长 预计第四季度在Claude 5训练和推理收入推动下可能升至4% [1][3][19] - Anthropic 2025年将为AWS带来约16亿美元的推理收入 其年度经常性收入(ARR)预计从年初10亿美元跃升至年底90亿美元 [3] - 平均每个Cursor Pro用户每月为AWS贡献约5美元收入 Cursor Pro用户年化收入(ARR)达500亿美元 其中Anthropic收入占比70% AWS收入占比25% [13][14] AWS增长潜力与产能扩张 - AWS第四季度收入增长市场预期为18% 但Anthropic贡献可能推动实际增长率显著超越预期 预计超预期2% [16][17] - AWS在2025年底可能拥有超过100万个H100等效的AI产能 得益于Blackwell GPU和40万个Trainium芯片上线 [20][21] - 少数大型AI实验室为超大规模云服务商创造大部分AI收入 AWS与Anthropic合作处于这一趋势核心位置 [25] 合作模式与业务结构 - Anthropic 70%收入托管在AWS上 其余30%在谷歌云平台(GCP)上 [26] - Anthropic是唯一拥有三个不同基础设施团队的AI实验室 分别管理GPU、TPU和Trainium三种架构 提供成本和可用性灵活性 [26] - 2025年Anthropic API总收入中直接API占比78%达30.39亿美元 合作伙伴API占比22%达8.68亿美元 [4][10] 面临的挑战 - 行业对通过AWS Bedrock访问Anthropic模型存在抱怨 显示合作关系可能面临考验 [3][22] - Cursor等重要客户开始转向OpenAI的GPT-5 API作为默认选择 虽然可手动切换但粘性不足 [22] - AWS是否有足够AI产能支持Anthropic所有增长活动仍存在争议 需求超过供应的状况持续 [21]
市场低估了亚马逊AWS“AI潜力”:“深度绑定”的Claude,API业务已超越OpenAI
华尔街见闻· 2025-09-05 12:34
AWS与Anthropic合作带来的增长潜力 - AWS与Anthropic的深度合作为其带来显著增长动力,但市场尚未充分认识到这一AI驱动增长的潜力 [1] - Anthropic目前为AWS贡献约1%的增长,但随着Claude 5训练和推理收入推动,贡献可能升至每季度4% [1] - Anthropic在2025年将为AWS带来约16亿美元的推理收入 [1] Anthropic API业务规模与增长 - Anthropic的API业务规模已经超越OpenAI,并且增长速度更为迅猛 [1] - Anthropic 90%的收入来自API业务,而OpenAI仅有26%的收入来自API [6] - Anthropic的API业务在2024年实现5.12亿美元收入,预计2025年将激增至39.07亿美元,同比增长662% [7][9] - OpenAI的API业务2024年收入为10亿美元,2025年预计增长至18亿美元,增速为80% [8][9] AWS收入贡献细节 - Anthropic API总收入中78%为直接收入,22%为合作伙伴收入 [2] - AWS在Anthropic API业务中占据70%份额,GCP占30%份额 [2] - AWS从Anthropic获得的API收入达16亿美元,其中直接贡献9亿美元,间接贡献8亿美元 [2] - AWS推理收入占比为40%,合作伙伴推理收入占比为130% [2] AI集成开发环境(IDE)的增长驱动 - AI集成开发环境应用的爆发式增长是Anthropic API业务增长的主要驱动力 [12] - Cursor、Lovable等AI编程工具通过Anthropic的Direct API获得模型授权,按每百万token成本付费 [12] - 平均每个Cursor Pro用户每月为AWS贡献约5美元收入 [12][13] - AI集成开发环境作为一个品类预计2025年ARR将超过10亿美元,而2024年这一数字几乎为零 [13] AWS季度增长预期 - 如果AWS保持与Anthropic的合作关系,第四季度收入增长有望比市场预期高出约2% [14] - 市场一致预期AWS第四季度收入增长18%,但Anthropic的贡献可能推动实际增长率显著超越预期 [14] - Anthropic可能在第四季度开始Claude 5的预训练,为AWS贡献约1.5%的增长,加上推理收入总计可能贡献4% [16] AI产能扩张与基础设施 - AWS在2025年底可能拥有超过100万个H100等效的AI产能,得益于Blackwell GPU和40万个Trainium芯片的上线 [17] - 自ChatGPT推出以来新增的AI产能预计到2025年底将超过100万H100等效算力 [20] - Anthropic是唯一一家拥有三个不同基础设施团队的AI实验室,分别管理GPU、TPU和Trainium三种架构 [22] 合作关系面临的挑战 - 行业内对通过AWS Bedrock访问Anthropic模型存在抱怨,表明合作关系可能面临挑战 [1][21] - Cursor等重要客户开始转向OpenAI的GPT-5 API作为默认选择,虽然用户可以手动切换回Anthropic,但粘性较弱 [21] - 巴克莱的分析基于Anthropic 70%的收入托管在AWS上的假设,其余30%在谷歌云平台上 [21]