NemoClaw
搜索文档
遭黑客投毒、被网安圈群嘲蹭流量、英伟达建的沙箱半小时就被攻破!OpenClaw 之父揭开大模型圈最脏的潜规则
AI科技大本营· 2026-04-21 17:55
OpenClaw项目现状与增长 - 项目在五个月内经历了神话式增长,成为GitHub历史上增长最快的纯软件项目,增长曲线被形容为“钢管舞柱式的垂直飙升”[11] - GitHub数据表现亮眼:Star数名列前茅,拥有约3万次提交,贡献者即将突破2000人,拉取请求(PR)接近3万个,且增长势头未减[11][13] - 项目同时处于“灾难级的围猎”状态,面临海量安全漏洞报告的轰炸,增长伴随着前所未有的挑战[3][7][11] 面临的安全挑战与行业反应 - 收到海量安全报告:总计1142个漏洞警告,平均每天16.6个,其中99个被标记为严重漏洞,已发布约469个修复,关闭了60%的问题[6][16] - 报告数量远超其他大型项目:是Linux内核项目每日报告数量的两倍,累计报告数量是cURL项目的两倍[18] - 安全行业存在“蹭流量”现象:大量报告被指为AI批量生成的“灌水垃圾”,且许多研究故意忽略项目安全指南,以制造更耸人听闻的故事[6][18][25][28] - 面临实际高级威胁:包括国家级黑客组织的攻击、供应链攻击(如通过MS Teams/Slack依赖的Axios漏洞)以及仿冒包(GhostClaw)攻击[24] 项目治理与生态建设 - 成立OpenClaw基金会以保持项目中立和开源,避免被单一公司控制,并计划通过基金会聘请全职人员以维持开发节奏和代码质量[13][34][35] - 积极引入多家科技巨头支持:获得英伟达、微软、红帽、腾讯、字节跳动等公司的工程师贡献,以分散开发压力并应对安全挑战[14][39] - 明确否认被OpenAI收购的传言,强调OpenAI理解并支持该项目保持开源、与任何模型兼容的重要性,以推动整个行业发展[34][37] 对AI开源与商业化的观点 - 认为开源是让更多人接触和理解AI的关键,OpenClaw的成功可以促使企业用户需求商业化托管版本,从而创造商业机会[37][39] - 暗讽某些以“A”开头的顶尖实验室(暗指Anthropic)对开源不友好,会因代码泄露或项目成功而采取法律行动,对比指出OpenAI正走向更开放的道路[7][42] - 本地模型和隐私控制是项目的核心吸引力之一,旨在让用户掌控自己的数据,并打破大公司建立的数据孤岛,实现独特的自动化场景[40][41] 开发理念与未来愿景 - 反对完全的“黑灯工厂”式自动化开发,强调软件开发是一个需要不断迭代、调整和注入“品味”的蜿蜒过程,最初的设想极少是最终成品[44][46] - “品味”是AI时代的关键能力与护城河,其底线是产品不能有“AI味儿”,需要通过细节打磨创造令人愉悦的、高层级提示词无法生成的用户体验[46][48] - 智能体的终极形态是“无处不在的交互”,如同《星际迷航》中的电脑,能够跨设备感知用户位置并提供服务,手机只是过渡形态[50][51] - 未来研究方向包括“梦境”记忆重组机制,模拟人类睡眠中的记忆处理过程,以优化智能体的学习和记忆能力[55][56] 对开发者与行业的建议 - 在AI时代,系统设计能力依然至关重要,是引导AI生成高质量代码、避免死胡同的关键[59] - 开发者需要学会“说不”,管理好AI实现无数天马行空想法的能力,以确保系统的和谐与可维护性[59] - 当前的瓶颈在于上下文同步与全局观把握,需要开发者提供线索来引导AI理解整个系统,从而产出可维护的解决方案[60]
Wall Street Turbulence: How Resilient is Nvidia?
The Motley Fool· 2026-04-20 06:10
AI行业与Nvidia公司近期市场表现 - AI行业及Nvidia等成长股在年初表现不佳,主要受伊朗局势担忧及美国经济潜在疲软影响,削弱了投资者对依赖市场繁荣的股票的偏好 [1] - 市场对AI行业收入机会的规模及高额投入水平产生疑问,叠加AI股票普遍高估值,导致部分投资者抛售并转向其他行业 [2] - 尽管标普500指数本月已反弹并创新高,Nvidia股价也在回升,但AI股票在第一季度领跌市场,市场仍在消化近期波动 [3] Nvidia的业务构成与AI依赖度 - Nvidia早期专注于为视频游戏行业开发GPU(图形处理器),后通过创建并行计算平台拓展GPU应用 [4] - 公司约十年前全力投入AI领域,开发专门用于AI的GPU,并凭借先发优势和持续创新保持领先地位 [4][5] - 目前,数据中心业务占Nvidia总收入的91%,而视频游戏仅占一小部分,表明公司增长极度依赖AI [5] - AI业务为Nvidia带来极高盈利能力,其毛利率超过70% [8][11] Nvidia的AI产品与服务生态 - Nvidia的业务已从为AI模型训练提供算力,扩展到支持模型推理(实际思考解决问题)的全过程 [6] - 公司提供广泛的支持产品与服务,如网络工具,以及协助AI下一阶段发展的创新,例如帮助客户安全部署AI代理的NemoClaw平台 [8] - Nvidia创建了服务于特定行业的专业平台,涵盖从医疗保健公司的药物发现到汽车行业的自动驾驶开发等领域 [8] - 这使得Nvidia超越了一家单纯的芯片公司 [8] Nvidia的增长战略与长期韧性 - Nvidia正致力于将AI引入所有行业并赋予其关键且持久的角色,以降低对单次支出爆发的依赖 [9] - 例如,公司与Nokia的合作将AI置于下一代移动网络和基础设施的核心,预计将为Nvidia带来持久的收入流 [9] - 即使大规模AI扩张最终结束,届时Nvidia的产品与服务也将在众多领域得到应用,有望推动收入持续增长 [10] - 公司拥有良好的创新记录,未来可能致力于开拓新技术,例如去年成立了量子计算研究中心,为AI与量子计算结合的高潜力领域布局 [10] - 高毛利率带来的充足现金使公司有能力持续投资于研发 [11] - 综合来看,Nvidia的业务具备韧性,有望实现长期增长 [11] 公司关键数据(截至新闻发布时) - **股价表现**:当日上涨1.67%,上涨3.32美元,当前股价为201.67美元 [7][8] - **市值**:4.9万亿美元 [8] - **交易数据**:当日交易区间为199.28美元至201.68美元,52周区间为95.04美元至212.19美元,成交量为5百万股,平均成交量为1.77亿股 [8] - **财务指标**:毛利率为71.07%,股息收益率为0.02% [8]
Were You Wrong to Sell Nvidia? Here's What GTC 2026 Revealed About the Next 2 Years.
The Motley Fool· 2026-04-05 14:20
公司业绩与财务预测 - 英伟达在2027日历年的人工智能收入预期达到惊人的1万亿美元,较此前5000亿美元的预期大幅提升 [2] - 公司2026财年第四季度(截至1月25日)销售额为681亿美元,同比增长73% [5] - 数据中心部门在第四季度贡献了623亿美元收入,同比增长75% [5] - 过去12个月公司总收入为2159亿美元,并预计在未来两年内接近5000亿美元 [11] 产品与技术进展 - Blackwell芯片已于2024年末开始发货,Rubin芯片预计今年开始销售,其能力更强且能效提升10倍 [6] - 公司将结合Rubin芯片与存储、推理加速器和以太网机架,打造“AI超级计算机”,以推动智能体AI解决方案 [6] - 公司推出了专为OpenClaw设计的NemoClaw产品,并推广了Groq 3语言处理单元,该芯片源于2025年12月以200亿美元收购的Groq资产 [9][10] - 公司正在销售专为新型Groq加速器设计的完整机架,旨在与Rubin机架级系统协同工作 [10] 市场与行业机遇 - 公司首席执行官曾估计,未来五年人工智能基础设施市场机会价值可能高达4万亿美元 [1] - 人工智能正进入推理拐点,能够完成生产性工作,智能体AI是AI演进的下一个阶段,可自主完成任务和决策 [7][9] - 公司正致力于将推理加速器集成到更广泛的AI基础设施平台中,为客户提供从个体计算、推理、智能体AI到存储和网络的全栈解决方案 [13] 公司股价与市场表现 - 英伟达股价较历史高点下跌约15%,自去年突破5万亿美元市值大关后,市值已缩水约1万亿美元 [3] - 当前股价为177.28美元,市值约为4.3万亿美元,当日交易区间为171.38美元至177.48美元 [8][9]
AI 季报 26Q1:OpenClaw、OpenAI 与 Anthropic 的三重对阵、自进化丨晚点播客
晚点LatePost· 2026-04-03 11:24
OpenClaw的崛起与AI Agent生态 - OpenClaw是一个开源的个人AI Agent框架,能在60天内其GitHub星数超过前端库React过去10年的累计,周下载量超过165万次[5][9] - 其成功标志着AI从聊天工具转向实际生产力工具,核心突破在于交互范式:它运行在本地电脑,拥有系统权限并能接入飞书、WhatsApp等日常聊天软件,使AI主动融入用户生活,而非用户主动寻找AI[9][10][11] - OpenClaw的流行在中国尤为显著,原因包括用户习惯聊天优先产品、使用Claude等应用受限、对成本敏感,以及其与高性价比国产模型的结合[12] - 它形成了一个模型厂商的新战场,中国公司反应迅速,如智谱推出了专门面向OpenClaw优化的GLM 5 Turbo模型[14][16] - OpenClaw当前存在成本高、稳定性与安全性三大不足,例如在长任务中可能因上下文压缩而丢失关键安全指令[17] - 业界正通过安全加固版本、无损压缩插件、多Agent协作插件及Skill市场等方式完善其体验[18] 头部AI公司的竞争格局演变 - **竞争焦点转移**:行业竞争焦点从纯模型能力(Benchmark跑分)转向产品与生态建设[6][9][30] - **Anthropic的强势崛起**:从2025年12月到2026年3月初,其年度经常性收入从90亿美元增长至190亿美元,增长约100亿美元,其中约75%收入来自B2B API服务,Claude Code在2026年2月的ARR达到25亿美元,已超过Cursor同期的20亿美元[23][24] - **OpenAI与Anthropic的三重竞争**:竞争体现在公司、产品(Codex vs Claude Code)和最新模型(GPT-5.4 vs Opus 4.6)层面[6][24] - **产品体验差异**:Claude Code在开发者意图理解和交流上更聪明,被比喻为负责规划的“主人”,而Codex在纯写代码能力上强,被比喻为负责执行的“奴隶”[25] - **公司战略对比**:Anthropic极为聚焦于编程和企业用户;OpenAI则优势在于庞大的C端用户基础和资金,但注意力分散,其内部已开始反思并减少支线项目投入,聚焦coding和企业服务[26][27] - **其他竞争者动态**:xAI在2026年Q1经历团队震荡,有联合创始人级别人物离职,追赶其他公司面临困难;Google正将AI深度集成进其办公套件,拥有强大的分发能力[28][29] AI模型与成本趋势 - **模型能力收敛与竞争新维度**:GPT-5.4、Opus 4.6及Gemini 3.1的能力差距正在收敛,Benchmark不再是核心差异点,下一阶段竞争关键在于开发者生态、企业信任感(安全合规)以及推理成本[30] - **编程能力成为通用代理基础**:全行业都在All in编程方向,模型的coding能力是担任个人助理类任务的基础,长上下文(如100万Token)和长程任务处理能力成为标配[30] - **推理成本成为关键**:Agent场景需要频繁调用模型,成本差距巨大,例如使用MiniMax的成本仅为使用Claude的5%,每月费用从约200美元降至15美元[14] - **中国开源模型受认可**:在OpenRouter的Token消耗榜上,中国模型如阶跃、MiniMax、Kimi、智谱等占据前列,性价比是核心优势,Cursor使用Kimi的K2.5模型作为基座也体现了对中国开源模型的认可[14][33][34] - **垂直整合趋势**:单纯做模型的厂商面临被“商品化”风险,趋势是从底层模型到上层应用的垂直整合,需要自有产品作为触手来收集真实的用户“轨迹数据”以指导模型优化[31][32] AI自我进化与前沿研究方向 - **Autoresearch展示自进化潜力**:Andrej Karpathy的autoresearch实验让AI Agent自主优化训练代码,在两天内找到20多个有效改进,将训练时间压缩了约20%[35][36] - **自进化案例密集出现**:包括Google的AlphaEvolved项目用Gemini优化自身内核提升23%性能,GPT-5.3 Codex参与自我调试,以及MiniMax发布的M2.7模型副标题为“自我进化的早期回响”[36] - **持续学习的两种路径**:一是基于文本和记忆机制的“穷人版”持续学习,易受上下文压缩影响;二是更前沿的权重更新技术,如Test Time Training,目前仅在数十亿参数小模型上验证可行[39] - **世界模型创业活跃**:方向包括3D空间建模、JEPA架构、视频信息与机器人学结合、环境模拟与交互式视频模型等,应用领域聚焦交互式媒体和具身智能[42][43][44] - **新的创业机会**:包括支持大规模个性化定制的工具、从大模型中精炼专门负责学习能力的小模型、以及将单Agent自进化实验扩展为多Agent并行协作等[41] 算力基础设施与行业影响 - **算力重点从训练转向推理**:英伟达新一代Vera Rubin架构推理性能提升3-5倍,推理Token成本可能降低10倍,Groq的LPU技术被集成其中[45] - **推理优化空间巨大**:例如Google的TurboQuant工作将KV Cache存储需求压缩至原来的1/6,CPU在Agent任务调度和执行中的作用凸显,需求出现增长曲线[46][47] - **AI引发组织与就业变革**:硅谷出现科技大裁员,如Meta裁员20%约15000人,并将节省的资金投向AI资本支出,预计AI投资将增加至650亿美元[48][49] - **企业用人逻辑变化**:招聘更重质量而非数量,倾向于“超一流人才+Agent”模式,全员AI native能力成为重点,小团队创业成为可能[49][50] - **社会影响探讨**:AI加剧资源与能力集中,可能扩大社会不平等,出现了对消耗大量计算资源的AI征收“Token税”的新思路[53][54]
Is NVIDIA Corporation (NVDA) one of the Best Goldman Sachs AI Stocks: Top 12 Stocks to Buy?
Yahoo Finance· 2026-04-01 01:37
公司近期动态与产品发布 - 2026年3月20日,NVIDIA在GTC大会上发布了基于其200亿美元收购Groq技术打造的语言处理单元,旨在提升GPU性能 [1] - 公司推出了基于Vera CPU设计的机架系统,以满足由智能体AI工作负载带来的更高数据传输和计算需求 [1] - NVIDIA发布了基于其软件栈构建的商业AI平台NemoClaw [1] - 公司展示了其Kyber机架级架构,该架构集成144个GPU以提高密度并降低延迟,相关系统预计于2027年发货 [2] 管理层观点与财务预测 - 首席执行官黄仁勋表示,智能体AI已到达拐点,正在将计算需求推向超越GPU的范畴 [1] - 公司估计,到2027年,其Blackwell和Rubin芯片将带来至少1万亿美元的营收 [2] - 公司指出,随着AI智能体执行高度复杂的任务,对快速推理的需求日益增长 [2] 公司业务与市场表现 - NVIDIA是一家无晶圆厂半导体和AI计算公司,设计GPU、AI加速器、应用程序编程接口和片上系统单元 [3] - 通过其CUDA生态系统,公司推动AI、加速计算和数据中心基础设施的发展,服务于从自动驾驶到科学研究等多个行业 [3] - 公司股票在相关新闻发布后波动有限,显示出强烈的市场预期以及对在华销售相关的不确定性 [2]
引入LPU的英伟达,是在补强,还是在拆自己的护城河?丨GTC观察
雷峰网· 2026-03-31 21:54
文章核心观点 文章围绕英伟达GTC大会,探讨了在AI推理时代,因算力需求激增和摩尔定律放缓,行业正从关注经济成本转向关注物理能耗极限,这促使SRAM等旧技术因能效优势回归,并推动了LPU等专用推理芯片、整机柜算力方案以及软硬件生态战略的新趋势,同时分析了中国芯片产业在其中的机遇与挑战 [4][5][6][22] 谈芯片:LPU与SRAM的回归 - 推理时代到来,降低推理成本与延迟至关重要,结构更简化的LPU因此显现优势 [5] - LPU的一大亮点是采用SRAM架构,大幅减少了数据搬运时间,尽管其成本曾是DRAM的6倍,但能效是DRAM的128倍 [5] - 行业衡量标准正从“一美元能买多少Token”的经济逻辑,转向“每焦耳能产生多少Token”的物理能耗逻辑,这使SRAM的能效优势得以重现 [5][22] - 纯SRAM架构并非Groq独有,阿里、Graphcore等公司都曾涉猎;“GPU+LPU”的异构架构也是行业演进方向 [8] - LPU的价值在于其扩大了可触达市场,黄仁勋提出Token分层定价,意味着有人愿为极致性能支付溢价,这使得按LPU价值计算的市场规模扩大了数十倍 [9][27] 谈架构:整机柜算力与毛利率 - 英伟达从Blackwell NVL72到Rubin持续加码“整机柜算力”,旨在应对模型参数膨胀和MoE架构下需要上百张卡协同工作带来的高效互联需求 [13] - 超节点的技术迭代极快,例如英伟达展示了将组装时间从两小时缩短至几分钟的无缆化设计,而AMD的跟进方案仍采用英伟达两年前的互联技术 [14] - 英伟达约70%的高毛利率源于其将技术转化为长期盈利的能力,以及与台积电、Synopsys合作,用自身算力改进芯片设计,形成“智能”反哺“智能”的飞轮效应 [14] - 英伟达的强掌控力基于对核心技术与高价值环节的卡位,其战略是像华为、苹果那样作为链主企业,只吃高增长部分的蛋糕,将毛利较低环节交由供应链 [15] 谈软件:生态建设与国内破局 - 英伟达推出企业版软件栈NemoClaw并配套Nemotron开源模型,在OpenClaw基准测试PinchBench上,任务成功率直逼Claude Opus 4.6和GPT-5.4 [17][18] - 英伟达的软件策略并非与客户抢地盘,而是自己先跑通应用以引导客户,并通过开源开放构筑庞大的安装基础生态,最终为硬件“带货” [19] - 国内芯片公司普遍面临软件团队规模小、客户服务能力弱等困境,难以支撑完整生态建设 [19] - 破局之道包括:国内芯片企业可通过整合形成一两家有实力的平台型公司以集中资源;国内大模型在开源层面已接近国外水平,且国内在超节点的散热、互联、供电等工程化能力上有优势,可以美国几分之一的成本进行量产 [19][20] 行业趋势与国内机遇 - 未来趋势明确:更大的算力系统承载更大的模型,更高的智力产生更高的Token需求 [31] - 算力发展将从民主化转向集中化,真正的算力承担者将集中到云端以降低能耗和成本 [29] - 国内算力资本投入将持续增长,但会产生冗余和淘汰,行业需要出现能带动整个产业链繁荣的强链主企业 [31] - 国内芯片公司不宜盲目追求与英伟达相同的高毛利,而应在芯片互联、模型软硬件调优等领域突破创新,通过性价比打开市场,带动产业链成长 [15] - 对于从业者,行业需要增加对顶级人才的重视;能力稍逊者可选择小的细分赛道进行降维打击,避免与最强对手正面竞争 [31]
Is Nvidia a Smart Buy for a Value Investor Right Now?
The Motley Fool· 2026-03-31 16:10
文章核心观点 - 近期市场担忧导致以英伟达为首的顶级科技股估值大幅下跌 使其当前股价进入价值投资区间 尽管公司本质仍是高增长股票 但对于寻求以低价介入高增长机会的价值投资者而言 当前是一个明智的买入时机 [3][12][14] 英伟达的业务与市场地位 - 公司是全球领先的AI芯片设计商 其GPU因速度最快而备受市场青睐 能帮助客户更快地将AI平台推向市场并产生收入 [5] - 公司的领导地位不仅限于GPU 其产品组合还包括网络工具、企业软件 并正将业务扩展至AI智能体领域 例如近期发布了帮助客户安全使用AI智能体OpenClaw的平台NemoClaw [6] - 在AI浪潮推动下 公司最新完整财年收入创下2150亿美元的历史记录 且毛利率持续保持在70%以上的高水平 表明其销售盈利能力极强 [7] 市场表现与估值变动 - 过去几年 从英伟达到Palantir Technologies等科技公司的股价涨幅达到三位数甚至四位数 估值也同步攀升 [2] - 近几周 由于对美国经济、伊朗战争以及AI投资水平能否在未来产生重大成果的担忧 英伟达等科技股股价受挫 估值承压 [2][8] - 英伟达股价目前已跌至约一年来的最低水平 当前股价为165.18美元 市值约为4.0万亿美元 52周价格区间为86.62美元至212.19美元 [3][11] 增长前景与价值投资分析 - 分析师预计公司当前完整财年收入将增长72% 按当前股价水平看 股票显得被低估 [12] - 公司持续指出其AI产品需求旺盛 且今年晚些时候发布下一代平台Vera Rubin应会带来额外推动力 其客户如Meta Platforms和亚马逊等科技巨头正在投资扩大AI基础设施 需要芯片 这支持了持续增长的观点 [13] - 尽管当前估值具备价值股特征 但公司本质上仍是增长股 未来很可能回归更高估值 因此其不具备传统价值股缓慢而稳定的节奏 并非对所有价值投资者都是最佳选择 [14] - 对于那些希望以极低价格介入潜在爆发性增长的价值投资者而言 英伟达目前是一个明智的买入选择 [14]
智能体应用研究系列(一):AI应用元年,OpenClaw引领Agent发展
招商证券· 2026-03-30 17:17
报告行业投资评级 - **推荐(维持)** [3] 报告的核心观点 - 当前产业已进入科技大厂与地方政策协同推进的新阶段 [1] - **算力云服务是最确定方向**,云厂提价背后的需求逻辑正在强化 [1] - 强烈建议积极关注**云计算厂商、国产算力芯片、算力租赁、AI Infra等基础设施板块核心标的** [1] 根据相关目录分别进行总结 1. OpenClaw 概览 - **产品定位**:OpenClaw是一款**开源、跨平台的AI智能体应用框架**,其核心设计理念是“本地运行、消息驱动” [1][10] - **核心特征**:具备**本地优先架构、消息驱动交互、技能生态开放**三大特征,通过WhatsApp、Telegram、飞书等现有通讯工具作为统一交互入口,显著降低使用与部署门槛 [1][10] - **设计理念**:秉承“龙虾之道”,坚持安全默认、本地优先、极简核心、无额外应用以及社区驱动五大原则 [10][11] - **产品形态**:将多智能体调度、工具链调用、记忆管理、定时任务、跨Agent通信与权限控制封装为**一体化运行体系**,推动AI Agent从技术验证走向可落地的生产力应用形态 [1][11] - **发展速度**:从项目启动到成为全球最火爆开源项目仅用时**4个月**,远超市场预期 [12] - **关键阶段**:经历了技术验证期、品牌重塑期和生态爆发期三个阶段 [14] 2. OpenClaw 产业关注度与生态爆发 - **GitHub热度**:截至2026年3月29日,OpenClaw在GitHub上的星标数已达**340k**,增长曲线斜率大幅超越React、Vue.js等历史顶级开源项目 [15][17] - **社区规模**:在GitHub上四个月内吸引了超**900名开发者**贡献代码,Discord社区实时在线人数达**1.8万**,成为全球增长最快的开源AI项目 [18] - **技能生态**:截至2026年3月29日,ClawHub技能商店上架技能已达 **39,802个**,技能类型覆盖从通用办公向垂直业务延伸 [18][21] - **热门技能**:排名第一的self-improving-agent技能下载量达**318k**,星标**2.8k** [19] - **云厂商响应**:已有**十余家主流云服务商**提供OpenClaw一键部署镜像,包括腾讯云、阿里云、AWS等 [22][23] - **腾讯云行动**:腾讯云Lighthouse于2026年1月末上线镜像,并于3月14日开启覆盖全国**17城、为期40天**的免费安装与技术支援行动 [22] 3. OpenClaw 火爆的原因分析 - **低使用门槛**:依托**一键安装、扫码配对**机制,云端镜像可在**5分钟**内完成部署,本地环境部署约**3–8分钟**,配置门槛较低 [26][27] - **技能开发革命**:通过**SKILL.md**实现了“自然语言编程”,将技能开发门槛降低至“会写文档即可”,无需编写传统代码 [28] - **核心技术优势**: - **Lane Queue(车道队列)**:基于会话隔离的并发调度机制,实现“会话级串行 + 系统级并行”,提升系统稳定性 [30][31] - **分层记忆与上下文压缩**:通过语义检索与压缩机制,优化Token使用效率,解决长上下文场景下的成本与窗口限制问题 [32][34] - **社交网络催化**:**Moltbook**作为AI智能体社交网络,增强了用户之间的可见性和互动性,放大了传播效率与平台网络效应 [33][36] - **社区文化共振**:倡导 **“Vibe Coding”** 文化,口号是“If you can describe it, you can build it”,吸引了大量非传统开发者参与生态共建 [37][38] - **巨头关注放大效应**:创始人以“Vibe Coder”身份加入OpenAI,英伟达CEO黄仁勋称赞其为“人类历史上最火的开源项目”,谷歌CEO Sundar Pichai称其“重新定义了AI应用的边界” [40][41] 4. 产业端进展:科技巨头的战略布局 - **海外巨头卡位**: - **英伟达**:推出开源AI智能体平台**NemoClaw**,基于OpenClaw架构并针对NVIDIA GPU进行深度优化,采用订阅制 [42][43] - **谷歌**:目前主要以模型接入支持为主,其**Google Workspace“全家桶”** 已全面支持OpenClaw调用,实现办公流程自动化 [44] - **亚马逊**:**AWS Lightsail** 提供通过官方blueprint一键部署私有、自托管OpenClaw的方案,是商业化程度最高的布局之一 [45] - **微软**:成立**CoreAI**部门,专注于构建端到端的Copilot技术栈与AI开发平台 [46] - **国内大厂跟进**: - **腾讯**:微信上线官方**ClawBot插件**;腾讯云已提供云端部署方案;自研的**QClaw**已开启全量公测 [47] - **百度**:发布全球首款家用AI智能体“**小度龙虾**”;百度网盘升级**GenFlow**并兼容OpenClaw能力,支持直接调用网盘文件 [49] - **小米**:基于澎湃OS和MiMo大模型,推出AI交互测试产品 **“Xiaomi miclaw”** ,并新增4款机型封测 [52] - **阿里**:正式成立 **Alibaba Token Hub(ATH)** 事业群,覆盖从基础模型研发到个人与企业端AI应用的完整布局 [53] - **国产模型调用领先**:近30天OpenClaw全球调用量消耗**15.5TT tokens**,调用量排名前五的大模型中,有**3个为国产模型**(阶跃星辰Step 3.5 Flash、智谱GLM 5 Turbo、MiniMax M2.5) [54][56] 5. 政策端强力扶持 - **深圳龙岗“龙虾十条”**:于2026年3月7日率先推出,提供全链条扶持,包括免费部署、**3个月免费算力**、数据服务**50%补贴**、硬件**30%补贴**、数字员工应用券最高**40%补贴**、代码贡献最高奖励**200万元**、种子期股权投资最高**1000万元**等 [57] - **多地政策跟进**:无锡高新区、杭州萧山、合肥高新区、武汉、南京等地密集发布专项政策,形成“养龙虾”政策热潮 [58] - **各地政策侧重**: - **杭州萧山**:提供算力券**50%补贴**(年度最高**2000万元**)、Token消耗**30%补贴**(年度最高**10万元**) [59] - **合肥高新区**:推出覆盖15项举措的全链条支持,对开源AI项目落地最高补贴**1000万元** [59] - **武汉**:提供算力服务券**50%补贴**(最高**20万元/年**),各区提供**≥2000卡时免费算力** [59] 6. 投资建议 - **最确定方向**:**算力云服务** [1][6] - **重点关注标的**: - 云计算厂商:**协创数据、宏景科技、阿里巴巴** [6] - 国产算力GPU:**海光信息、寒武纪** [6] - 字节系:**润泽科技、东阳光** [6] - **建议关注标的**:网宿科技、东方国信、深信服、品高股份、首都在线、光环新网、优刻得、并行科技、金山云等 [6]
黄仁勋的直钩钓不了中小企业
创业邦· 2026-03-27 18:28
文章核心观点 - 智能体(Agent)在B端企业市场落地的核心矛盾是“智商、安全、成本”的不可能三角,当前行业竞争焦点已从单纯的技术能力比拼转向对“安全”定义权的争夺,安全成为获取企业付费门票的唯一通行证[5][6] - 不同技术厂商针对上述矛盾提出了截然不同的解决方案,但均未彻底解决不可能三角,只是将风险转移到了不同维度,预计未来市场将呈现“双轨制”格局,即面向中小企业的云端托管路线与面向精英企业的本地硬件隔离路线长期并存[10][13][14] 行业现状与核心挑战 - 智能体框架(如OpenClaw)面临落地困境:本地部署受限于消费级硬件(如Mac mini),只能运行7B、13B等小参数模型,导致处理复杂任务时“智商”不足;而全盘云端化则因数据安全和隐私泄露风险(如邮件被清空、Prompt注入攻击)让企业犹豫不决[5][7] - B端企业付费意愿明确,但底线是数据安全,数据被视为企业命脉,没有极致的安全保障,企业不敢将核心工作流托付给智能体[6] - 智能体在C端难以普及,原因在于多步推理和反复调用工具会产生恐怖的Token消耗,只有B端企业才能承担这种指数级爆发的算力成本[5][6] 主要厂商解决方案与策略分析 英伟达方案:硬件级“监狱式安全” - 在GTC 2026推出NemoClaw框架与DGX Station硬件组合,主打“数据物理隔离,绝对安全”的叙事,声称能在本地运行万亿参数大模型[7][8] - 其方案实质是“直钩钓鱼”:所谓本地运行万亿模型实为运行在NVFP4量化版(4-bit精度)上的阉割版,虽经硬件加速,但在长链条逻辑推理中会产生累积误差,导致Agent出现“幻觉漂移”和“降智”现象[8] - 方案成本高昂(六位数美元起步),且非开箱即用,需要企业投入大量工程进行全链路适配(如配置OpenShell沙箱、进行RAG对齐),相当于重新开发一套ERP系统,将90%的中小企业挡在门外[8][9] - 英伟达的商业模式是通过企业的安全焦虑,将开源智能体生态收编为自家高端硬件(DGX)和云端算力(A100租赁)的促销工具,实现“两头通吃”[9] 面壁智能方案:动态“安检式安全” - 采取中间路线,在执行链路中加入“隐私路由中间件”,根据数据敏感度分级处理:S1级普通信息直接上云,S2级敏感字段脱敏后上传,S3级极密数据强制留在本地由端侧小模型(如MiniCPM)处理[11] - 配套“双轨记忆”系统,云端存脱敏版,本地存完整版[11] - 该方案将安全风险转移为运维复杂度和系统脆弱性:动态分级判断机制存在“误判率”风险,可能导致核心数据被错误路由至低安全通道;长期运行中,“双轨记忆”的一致性维护困难,可能导致云端与本地记忆错位,复杂推理任务仍需回传云端处理[11] 钉钉(阿里)方案:云端托管式安全 - 推行“安全云端化”路线,将工作流命令行化(CLI化),企业数据托管在钉钉云端,依托阿里云十余年的企业级合规体系背书[12] - 该策略将安全风险与管理责任转移给平台方(钉钉/阿里云),由平台应对风险,对于缺乏自身部署和安全防护能力的中小企业而言,分摊下来的安全成本更低[12][13] 未来市场格局展望 - 市场将呈现“双轨制”割裂发展:“工作流云端化”策略主要面向广大的中小企业市场,中国有5300万家中小企业,贡献了超过60%的GDP,其核心工作流多为请假、报销、考勤等日常事务,钉钉等平台通过生态共生关系满足其需求,一旦普及将引爆真正的指数级Token消耗[13][14] - “硬件深井”策略则服务于精英企业,如精密制造、金融交易、基因分析等对试错零容忍、毛利率高的行业,它们愿意支付百万美元购买DGX Station作为“保险”,若英伟达能推动“硬件级物理隔离”成为行业合规标准,将形成垄断生意[14] - 从国情看,高昂的硬件与合规成本更适合欧美“门阀垄断”经济体,而中国及广大发展中国家市场更可能接受“分级路由”及“云端托管”模式,即“蚂蚁雄兵”式的广阔市场[15]
信息量极大!黄仁勋最新论断:AGI已实现,OpenClaw是AI界iPhone,未来将有10亿程序员
AI科技大本营· 2026-03-26 19:18
公司发展历程与战略决策 - 公司从图形加速卡起步,通过推出CUDA打开通用计算大门,并发展为提出“AI工厂”概念的全球首个市值突破4万亿美元的科技公司,几乎重塑了整个计算产业的底层形态 [1] - 公司早期战略决策是将CUDA搭载到每一块GeForce显卡上,尽管当时成本直接上升了50%,而公司毛利率只有35%,市值一度从60-80亿美元跌至约15亿美元,但该决策被视为公司“生死存亡”的战略转折点,并最终成为当今AI计算基础设施的核心 [29][31][32][38][44] - 公司从一家功能专一的加速器公司起步,通过研发可编程像素着色器、加入IEEE标准的FP32浮点运算单元、开发Cg语言,最终走到CUDA,立志成为一家拥有自己兼容计算架构的计算公司 [27][28][29][30] - 公司认为一个计算架构的生命力取决于其装机量,因此决定将CUDA装进每年售出的数百万片GeForce GPU中,以此积累庞大的装机基础,并走进大学推广以吸引开发者 [34][36][37] - 公司靠GeForce打下江山,正是通过GeForce,CUDA才得以走进千家万户,并被科研人员和科学家所接触,为后来的深度学习革命奠定了基础 [39][40][41][42] 管理哲学与组织架构 - 公司采用“极致协同设计”方法,优化从架构、芯片、系统、软件、算法到应用的整个技术栈,包括CPU、GPU、网络、电力与散热等所有复杂组件,以解决大规模分布式计算中性能提升远超简单堆机器的问题 [9][10][12][14][16][17] - 公司首席执行官的直接汇报对象多达60人,且几乎全部具有工程背景,涵盖内存、CPU、GPU、架构、算法等各个方向的专家 [4][19][20][21][22] - 公司内部基本不进行一对一会谈,所有问题都公开讨论,让所有相关专家共同参与,以确保在讨论具体模块时,其他领域的专家也能即时提出跨领域的制约因素(如供电、内存友好性) [4][19][23][24] - 公司的组织架构设计与其所处的环境及要创造的产品紧密相关,目标是成为一套能够产出成果的机制、体系与系统,而非遵循传统的汉堡型或扁平型组织结构图 [18] - 领导方式是通过持续的逻辑推演和日常沟通,潜移默化地构建公司内外部对未来的共识,例如在正式宣布全力投入深度学习或进行重大收购(如Mellanox)前,已花费长时间进行铺垫,使决定显得理所当然 [47][48][49][50][51] 技术演进与行业趋势判断 - AI模型架构大约每六个月就会出现一种新的,而系统架构和硬件架构大约三年才迭代一次,因此必须提前预判未来两三年可能出现的技术方向 [5][65] - AI发展的规模法则已从预训练扩展至四个:预训练、后训练、推理以及智能体扩展,智能的扩张最终只取决于算力 [56][62][63] - 训练的瓶颈已从数据转变为算力,因为未来训练所用数据大部分将是合成数据,人类原生数据占比会越来越小 [57] - 推理(思考)阶段的算力需求极其密集,远比单纯的预训练(记忆与泛化)复杂,涉及逻辑推演、规划、搜索和决策 [58][59] - 下一个重要的规模法则是智能体扩展法则,智能体可以自主研究、使用工具并衍生出大量子智能体,相当于让AI实现自我复制 [60][61][62] - 有人愿意为每百万token支付1000美元的时代即将到来,这只是时间问题,智能本身是可规模化的产品,高阶智能token具有真实价值 [5][170] - OpenClaw对于智能体系统的意义,就像当年ChatGPT对于生成式AI的意义一样,是Token时代的iPhone,是历史上增长最快的应用之一 [5][80][174][177][179] 工程哲学与供应链管理 - 公司采用“光速法则”的工程哲学,即用物理极限(如光速)来检验和权衡所有设计方案的延迟、吞吐量、成本、容量等维度,追求在必要时尽可能复杂,在可能时尽可能简洁 [121][122][129] - 公司反对单纯的持续改进,主张以第一性原理从零开始重新设计,探求理论上的最快极限,而非在现有流程上进行小幅优化 [123][124][125] - 公司目前制造的是世界上最复杂的计算机,例如Vera Rubin Pod包含7种芯片类型、5种定制机柜、40个机柜、1.2万亿亿个晶体管、近2万个英伟达裸片、超过1100颗Rubin GPU、60 Exaflops算力及每秒10 PB的扩展带宽 [126] - 一个NVL72机柜就包含130万个组件、1300颗芯片,公司将超级计算机的集成工作从数据中心现场移至供应链制造环节,并以整机架形式发货 [94][96][127] - 公司需要供应链每周生产大约200个这样的Pod,并确保供应链有足够的电力(例如每周1吉瓦)用于制造和测试 [96][128] - 公司花费大量时间与上下游供应链伙伴(如台积电、ASML、内存厂商)的CEO沟通,传递行业趋势和未来需求,以引导他们进行数十亿美元级别的资本投资,共同构建未来供应链 [88][89][90][91][92][93][97] - 公司与台积电合作三十年来,业务规模高达数百上千亿美元,却没有一纸合同,建立在深厚的信任基础上 [140][142][143][144] 市场定位与竞争优势 - 公司最核心的“护城河”或竞争优势是其计算平台(尤其是CUDA)的庞大装机量,以及在此复杂系统规模下的快速执行迭代能力 [150][151][152] - 公司的第二项优势是广泛而统一的生态系统,其架构通过垂直整合和横向融合,接入了所有主要云平台、计算设备企业,并覆盖汽车、机器人、卫星、太空及各行各业 [153][154] - 公司是一家计算平台公司,进行垂直设计以优化产品,但将平台全方位开放,供其他公司整合进其产品、服务与云平台中 [53][54] - 公司对计算基本单元的认知已从单一的GPU芯片,演变为整机、集群,再到如今的吉瓦级“AI工厂”或“Token工厂” [155][156][157][158] - 公司增长的两个根本性技术原因是:计算模式从检索型文件系统转向生成型实时token处理;计算机从存储仓库转变为能创造营收的生产工厂 [168][169] - 公司未来的增长不受物理条件限制,全球GDP中用于计算的占比可能达到过去的一百倍,公司规模有望继续大幅扩张 [170][171][172] 对特定市场与技术的看法 - 中国是一个“开发者大国”,其科技产业成功源于约全球50%的AI研究人员是华人、优秀的STEM教育、内部省份间的激烈竞争、深厚的“同学”友谊纽带以及开源驱动的快速创新文化 [132][133][134] - 开源是许多行业加入AI革命的根本前提,公司通过开源AI模型(如Nemotron 3)来激活全球研究者和国家,并理解AI模型演进以更好地设计未来计算系统 [135][137][138] - 太空是处理卫星影像等海量数据的理想场所,AI必须在边缘端进行数据处理以过滤无用信息,公司GPU已成为首批进入太空的GPU,正在攻克辐射、散热、冗余设计等工程难题 [159][161][162][164][165] - 未来数据中心不应再追求“100%永久在线”,电网在99%的时间里实际负载仅为其设计峰值的60%左右,存在大量闲置电力,应通过“可优雅降级”的数据中心设计和更灵活的电力合同来利用这部分电力 [5][99][100][101][102][104] - 应对算力扩张的能源瓶颈的方法是不断优化“每秒每瓦特生成的Token数”,同时需要获取更多电力,并利用地球上闲置的电力资源 [86][87][103][166] 对同行与行业的观察 - 埃隆·马斯克是一位出色的系统级思考者,能跨越学科、质疑一切、亲临一线、并以其紧迫感带动整个供应链,从而打破思维定式并快速优化系统 [110][111][112][113][114][115][116][117] - 台积电的成功不仅在于顶尖的晶体管和封装技术,更在于其能统筹全球数百家企业动态需求的高效运营体系、兼顾技术前沿与客户服务的文化,以及所建立的无价信任 [139][140][141][142] - 以前全球只有3000万人能编程,现在这个门槛消失了,全世界10亿人都可以是“程序员”,不应为此焦虑,而应倍受鼓舞 [5] - 指望十万个智能体打造出另一个英伟达,可能性是零 [5] - 公司认为已经实现了AGI(通用人工智能) [5]