硬AI
搜索文档
腾讯进入“AI烧钱阶段”,市场第一反应“不开心”,胜负手就看“未来几个季度的AI进展”
硬AI· 2026-03-19 10:37
公司战略转向 - 公司已正式步入由人工智能投资驱动的新一轮战略周期,明确优先建设长期AI基础设施而非单纯追求短期利润增长 [3] - 为支持AI投资,计划2026年对混元及新AI产品的投资至少翻倍,并预计2025年的股份回购规模将低于2024年 [3] - 公司将资源向AI倾斜,收入增速快于利润增速将成为短期内的常态 [7] 财务影响与市场反应 - 高盛将公司2026和2027年的净利润预期下调1%至2%,并将12个月目标价从752港元下调至700港元 [7] - 由于AI相关成本导致运营支出增加,预计公司2026财年的营业利润率将收窄65个基点 [6] - 市场对公司减少回购转向增加AI投资的初步反应负面,公司ADR盘中大跌4%,其大股东Prosus下跌8% [3] - 高盛预计公司2026年调整后净利润同比增长7%,低于此前10%的预期 [3] AI投资规模 - 仅在2025年第四季度,公司在“元宝”及混元大模型上的投入就达到16亿元人民币,全年累计支出达18亿元 [7] - 管理层预计2026年对混元及新AI产品的投资将增加一倍以上 [7] - 高盛预计2026至2027年,公司的资本支出将分别达到1000亿元和1100亿元人民币,算力资源将优先向核心AI产品倾斜 [7] 核心业务表现与预期 - 2025年第四季度,公司总营收同比增长13%,游戏业务实现22%增长,营销服务收入同比增长19% [10] - 高盛对游戏业务持乐观预期,预计2026年第一季度和全年收入同比分别增长15%和12%,得益于常青游戏韧性和新游戏表现 [11] - 高盛预计营销服务2026年第一季度和全年收入同比分别增长17%和14%,受视频号用户时长增长20%及与电商平台深化合作推动 [11] - 高盛预计金融科技与企业服务2026年第一季度和全年收入同比分别增长7%和9%,企业服务受益于定价环境改善及国际云业务健康增长 [11] 估值与修复前景 - 公司目前的远期市盈率约为16倍,低于年初的18倍,也低于META和Alphabet等国际同行 [9] - 相比Meta、Alphabet或阿里巴巴等全球同行普遍22倍至29倍的估值水平,公司仍具备明显的估值修复空间 [13] - 估值修复的催化剂在于公司AI叙事的转变——从基础模型的后来者转变为智能体AI时代的受益者 [9] - 估值修复进程将紧密围绕公司的AI叙事演变,投资者需密切关注广告收入能否出现类似Meta的加速增长迹象,以及关键AI产品的发布时间表和商业表现 [13] AI产品与未来关键 - 当前低估值能否修复,关键在于混元3.0、元宝及微信AI助手等产品未来3至6个月的商业落地成色 [2] - 投资者和市场的下一步反应将主要取决于公司在未来几个季度内核心业务的AI整合进展,以及混元3.0、元宝应用等产品的表现 [3] - 需关注预计下月发布的混元3.0大模型、元宝AI应用、微信AI助手,以及涵盖SkillHub、OpenClaw和WorkBuddy等在内的生产力AI智能体工具在未来3到6个月内的实际商业表现 [13]
中国云市场,一场史无前例的涨价潮来了!
硬AI· 2026-03-19 10:37
行业核心观点 - 中国云计算行业出现历史罕见的定价反转,由持续二十年的降价周期步入涨价拐点 [2][3] - AI时代打破了云计算行业规模越大成本越低价格越向下的通缩范式,一个前所未有的提价周期正在中国AI云市场酝酿 [3][13] 头部云服务商集体涨价动态 - 阿里云宣布对AI算力、存储等产品调价,最高上调34%,原因是全球AI需求爆发与供应链涨价 [3][6] - 百度智能云宣布AI算力相关产品服务上调约5%-30%,并行文件存储等上调约30% [3][6] - 腾讯云此前已宣布涨价,其Tencent HY2.0 Instruct模型输入价格由0.0008元/千Tokens上调至0.004505元/千Tokens,涨幅高达463.13% [6] - 网宿科技宣布自2026年2月1日起对CDN产品提价35%-40% [6] - UCloud宣布自2026年3月1日起对所有合同续签和新客户提价 [6] - 海外云厂商如AWS和谷歌云也宣布了AI基础设施及网络服务的提价计划 [7] 涨价背后的核心驱动因素 - 以OpenClaw为代表的AI Agent应用渗透加速,使Token消耗量较传统对话式AI呈几何级跃升 [9] - 全球AI模型周度Token使用量近几周已达到约16万亿,相较2026年1月的水平几乎翻了三倍 [10] - 供给端面临芯片系统性瓶颈,全球内存芯片短缺可能持续到2030年,AI芯片H100/H200租金大幅上调且交付周期延长至2027年 [10] - 新建算力中心对电力与液冷散热要求更高,建设与运营成本显著高于传统数据中心 [10] - 在需求爆发而供给扩张受限的组合下,云基础设施进入“成本推动+供需紧张”的通胀环境 [11] AI云市场增长前景与定价影响 - 摩根士丹利预测,中国AI云市场(GenAI相关IaaS+MaaS)2024至2029年复合年增长率预计达72%,市场规模将从2024年的150亿元人民币跃升至2029年的2180亿元人民币 [13] - GenAI占中国IaaS+PaaS总市场的比重,将从2024年的6%升至2029年的39%,AI云将成为云计算最核心的增长引擎 [13] - 云厂商重新获得定价权的可能性上升,定价弹性将显著改善利润 [4] - 以阿里云为例,每提价1%,EBITA利润率即可提升1个百分点,或推动EBITA预测上调11% [13] - 若整体合同价格提升10%(假设每年20%的合同到期续签),EBITA利润率将扩张4个百分点 [13]
雷军官宣全球开发者热议的“神秘模型”,小米“AI路线图”逐步明晰
硬AI· 2026-03-19 10:37
小米发布万亿参数大模型系列 - 公司于3月19日发布MiMo大模型系列“三连更”,包括旗舰基座大模型MiMo-V2-Pro、全模态Agent模型MiMo-V2-Omni以及语音合成模型MiMo-V2-TTS [5] - 创始人雷军表示,公司在AI领域的实际进展可能比外界看到的要快很多,2025年AI研发与资本投入将超过160亿元人民币 [7] - 此次发布终结了此前关于一款名为“Hunter Alpha”的匿名模型(具备逾1万亿参数及100万token上下文窗口)身份的猜测,该模型被证实为小米所有 [3] 旗舰模型MiMo-V2-Pro性能表现 - MiMo-V2-Pro总参数量超过1万亿(活跃参数为420亿),支持100万token的超长上下文窗口 [13] - 该模型在全球大模型综合智能排行榜Artificial Analysis Intelligence Index上位列全球第八、中国模型第二,超越了xAI的Grok模型 [13][14] - 模型在成本效率上具有显著优势,运行该模型完成Intelligence Index测试的成本为348美元,较同榜单排名靠前的GLM-5低36%,较Claude Sonnet 4.6低90% [16] - 与Claude Opus 4.6和Claude Sonnet 4.6相比,MiMo-V2-Pro的token使用成本最高可低80% [16] 全系列模型特点与集成应用 - MiMo-V2-Pro专为现实世界中高强度的Agent工作场景深度优化,在OpenClaw标准评测榜单PinchBench、ClawEval上效果处于全球顶尖 [17] - MiMo-V2-Omni整合了图像、视频及音频的多模态理解能力与智能体能力,在多项核心指标上达到或超越Gemini 3 Pro、Claude Opus 4.6、GPT-5.2等模型水平 [11] - MiMo-V2-TTS提供高可控的多粒度风格控制、自然韵律复现及歌唱能力,下一步目标包括扩展中英文以外的语言覆盖 [11] - 三款模型已集成至WPS Office、小米手机及电脑上的miclaw智能体系统和小米浏览器 [13] 高盛研报核心观点 - 高盛认为此次发布标志着公司正从AI研发投入阶段迈向成果兑现阶段,“物理AI领导者”的市场定位正逐步获得实质支撑 [9] - 高盛维持对公司的“买入”评级,设定12个月目标价为41港元,较当前股价隐含约14%的上行空间 [2][9] - 高盛预计公司2026年研发支出将达400亿元人民币,高于2025年预估的322亿元,持续的投入可能对近期利润形成拖累 [23] - 高盛预测公司2026年净利润(扣除特殊项目前)约为279亿元人民币,低于2025年预估的395亿元 [23] - 高盛认为,持续的成果交付应推动市场将公司重新定价为拥有自研AI、操作系统及芯片能力的物理AI领导者 [23] 公司AI战略与生态布局 - 此次模型发布是公司系统性推进AI研发成果转化的一部分,此前已发布了面向机器人推理的视觉-语言-动作模型Xiaomi-Robotics-0、AI智能体系统miclaw以及整合了自研跨具身基础模型的升级版辅助驾驶系统HAD [20] - 高盛为三款模型勾勒了迭代方向:MiMo-V2-Pro将攻克高复杂度推理与长周期任务规划;MiMo-V2-Omni将实现跨小时乃至跨天的持续意图规划与实时流感知;MiMo-V2-TTS将向多语言扩展并深化与Omni的融合 [21] - 高盛指出,凭借领先的多模态AI能力及“人车家”生态内丰富的智能体应用场景,公司具备捕获全球AI模型行业巨大市场空间的潜力,并有望打造高溢价、差异化的消费级AI终端 [21] 技术效率与成本优势 - 在训练效率方面,公司近期推出的ARL-Tangram系统已部署用于支持MiMo系列模型训练,该系统实现了平均动作完成时间提升4.3倍、强化学习训练速度最高提升1.5倍,以及外部资源节省最高达71% [16] - MiMo-V2-Pro在底层架构上继承了混合注意力机制,并将混合比例从5:1大幅提升到了7:1,兼顾了超大规模与极高的推理效率 [10]
财报“赚翻了”,但美光为何大跌
硬AI· 2026-03-19 10:37
公司业绩与指引 - 公司预计第三财季营收约335亿美元,每股利润约19.15美元,均大幅超出分析师平均预期的237亿美元和11.29美元,超预期幅度均超过40% [3][10] - 公司第二财季(截至2月26日)营收为239亿美元,近乎翻三倍,每股盈利12.20美元,分别高于分析师平均预期的197亿美元和9美元 [10] - 公司预计截至今年8月的2026财年资本支出将超过250亿美元,超出此前分析师平均预期的224亿美元 [3][7][8] - 公司披露2027财年资本支出将在2026财年基础上再增加逾100亿美元,首席执行官表示预计2027财年资本支出将大幅提升 [2][3][8][9] 市场反应与估值 - 公司披露超预期的资本支出计划后,股价盘后一度下跌6% [3] - 分析认为股价回调反映了市场对高估值与高资本开支组合下盈利可持续性的重新审视 [2][6] - 今年以来公司股价已累计上涨62%,是费城半导体指数中表现最佳的成分股 [6][14] 行业竞争与关键变量 - 公司正积极推进新一代高带宽内存HBM4的量产爬坡,并已实现HBM4大规模量产 [12] - 英伟达将在多大程度上依赖公司供应HBM4是一个关键的不确定性,其新一代Vera Rubin产品线的存储采购决策将直接影响公司在HBM市场的份额 [2][13] - 若英伟达在该产品线上转而倾向竞争对手,将对公司构成实质性冲击 [13] 行业背景与驱动因素 - 全球AI算力投资浪潮催生存储芯片短缺,高带宽内存是训练和运行AI模型所必需的数据传输组件,需求急剧膨胀 [15][16] - 存储厂商将更多产能向利润率更高的HBM订单倾斜,加剧了普通存储芯片的供应紧张,推动整体价格上涨 [16] - 全球存储芯片市场高度集中,由美光、三星电子和SK海力士三家主导,分析人士预计强劲需求将延续数年 [16] - SK集团董事长表示,由于结构性瓶颈,全球存储短缺局面可能再持续四至五年 [16]
“龙虾”狂潮,“Token”爆炸,吹得动中概“BAT”吗?
硬AI· 2026-03-18 15:52
文章核心观点 - 开源AI智能体框架OpenClaw(“小龙虾”)引发了一场Token消耗革命,其通过即时通讯软件直接操控电脑执行任务,导致模型调用量和Token消耗量呈数量级增长,正在重塑中国AI产业格局 [3][4][5] - 中国主流AI模型凭借远低于国际同行的定价(普遍低于OpenAI GPT-5.4的20%,大多数不足10%)和持续改善的推理毛利率,成为全球Token消耗激增的主要受益方,并吸引了全球开发者 [2][18][20] - 中国互联网巨头迅速将OpenClaw改造为“一键部署”的云端SaaS服务(统称“ChinaClaw”),并推出订阅制收费模式,这被视为撬开中国SaaS化货币化的历史性大门,有望开辟全新的市场空间 [6][22][27] - 由“小龙虾”驱动的Token需求爆炸性增长,加剧了算力短缺,推动了云服务涨价(如阿里云部分产品最高涨价34%)和资本开支增加,腾讯、阿里、百度等基础设施与平台层公司被视作最直接的受益者 [2][3][24][25] 根据相关目录分别进行总结 “小龙虾”席卷中国:从开发者玩具到全民AI基础设施 - OpenClaw是一个驻扎在即时通讯软件中、能直接操控电脑执行现实任务的AI执行者框架,其生态核心ClawHub技能平台已积累超过20,000个技能 [5] - 单个OpenClaw每天可产生数百甚至数千次模型调用,其Token消耗量是传统AI聊天应用的数量级倍数 [5][14] - 与欧美市场主要停留在开发者圈子不同,中国互联网巨头已将其改造成“一键部署”的云端服务,并批量推向市场 [6] ChinaClaw百花齐放:巨头集体押注,SaaS化变现破茧 - 2026年2月底至3月,中国主要互联网和AI公司密集推出各自的Claw产品,例如腾讯的WorkBuddy和QClaw、字节跳动的ArkClaw、阿里的JVS Claw、百度的DuClaw等 [8][9] - 这些产品均支持通过企业微信、钉钉、飞书等工作通讯平台调用,直接切入企业工作流,腾讯WorkBuddy上线前已在内部供超过2000名员工使用 [9] - 产品普遍采用订阅制收费,月费定价在每月40至500元人民币之间,标志着消费级AI产品从免费进入付费订阅时代 [9][22] Token爆炸:数据揭示全球AI需求拐点 - 通过API聚合平台OpenRouter监测的数据显示,近期全球AI模型每周Token使用总量已达约16万亿,相较于2026年1月(OpenClaw发布前)的水平大约翻了三倍 [6][11] - 中国模型是Token消耗增长的最大受益方:截至2026年3月9日过去一个月,MiniMax M2.5 Token使用量达7.5万亿居全球第一,Kimi K2.5为4.2万亿,DeepSeek V3.2为3.3万亿,GLM-5为2.2万亿 [15] - 厂商自身数据增速惊人:MiniMax披露其2026年2月M2系列文本模型日均Token消耗量较2025年12月暴增超过6倍;Kimi K2.5在发布后20天内的营收超过了2025年全年 [15][16] 中国模型的成本“核武器”:定价不足美国同类的10% - 中国主流AI模型的输出定价普遍低于OpenAI GPT-5.4的20%,大多数甚至不足10% [2][18] - 具体案例:以MiniMax M2.5为例,其输出Token价格为每百万1.20美元(GPT-5.4为15美元);以每秒100个Token输出运行一小时,成本仅约1美元,为Claude Sonnet同等成本的1/10至1/20 [19] - 在价格优势下,中国AI厂商的推理毛利率持续改善,例如MiniMax单位Token推理成本从2025年12月至2026年2月已降低逾50%,智谱和MiniMax的API及企业AI部署毛利率约为60%-70% [20] 算力短缺加剧:谁是最确定的受益标的? - 算力供需矛盾因ChinaClaw浪潮冲击而急剧恶化,阿里云已率先对AI算力、存储等产品涨价,其中平头哥真武810E等算力卡产品上涨5%-34%,文件存储CPFS(智算版)上涨30% [3][24] - 基础设施层受益最为确定:阿里巴巴作为国内最大云厂商,预计将因算力短缺进一步上调资本开支;金山云的AI工作负载占总收入比例超30% [25] - 应用平台层SaaS货币化路径受期待:腾讯通过QClaw和WorkBuddy覆盖广泛通讯入口;百度搜索在ClawHub技能下载榜排名第一,下载量超过36,000次,带动云服务续签 [27] - 中国AI实验室(如MiniMax、月之暗面、智谱、DeepSeek)是Token用量暴增的直接受益者,其成本优势正吸引全球开发者切换至中国模型 [26]
光通信大会(2026 OFC):电信大会变成AI大会,焦点是“如何在更小空间塞入更高密度光纤"
硬AI· 2026-03-18 15:52
行业趋势转变 - 一年一度的光纤通信大会已从一个以电信行业为核心的展会,全面转向AI基础设施,焦点高度集中于满足AI数据中心对带宽和低延迟的需求 [3] - 与会分析师指出,该展会已经从一个电信展变成了一个AI展 [5] 提升密度与节省空间 - 康宁展示新型微型线缆,通过去除塑料管节省空间,并重点推介多芯光纤技术,将四个光学纤芯集成于单根光纤以实现带宽跨越式提升 [7][8] - Arista推出计划于2027年量产的新型可插拔光模块XPO,相比当前广泛使用的OSFP方案,可将每机架带宽提升4倍,同时将交换机机架占地面积缩减75% [9][10] - 支持XPO方案的多源协议已获逾40家成员背书 [11] 降低功耗与架构创新 - Ciena展示搭载Hyper-Rail技术的新型可重构线路系统,可在集群与数据中心之间实现最高32倍密度提升,并降低每机架高达75%的功耗 [14] - 思科推出Open Transport 3000系列,声称新系统可将功耗降低75%,机架空间利用率提升80% [17] - 诺基亚推出名为Aurelis的无源光网络带外管理系统,称其可将网络所需交换机数量减少90%,同时降低50%的能耗 [18] 前沿技术:空心光纤 - 空心光纤让光在空心玻璃纤芯中传播,可显著降低延迟,从而连接更远的数据中心 [20] - 康宁已于2025年9月与微软达成合作,为其提供空心光纤的制造服务,致力于构建跨国生产供应链以扩大全球部署规模 [21] 光学组件进展 - Coherent发布多项共封装光学技术,包括基于硅光子的6.4T插槽式CPO、基于高速VCSEL的多模插槽式CPO,以及在硅基上运行的400G InP调制器 [23] - Lumentum展示了多款面向AI和云数据中心的产品,包括1.6T DR4 OSFP可插拔收发器原型、800mW超高功率激光器和16通道DWDM超高功率激光器 [23] - Marvell与Lumentum联合展示了Aquila 1.6T相干精简DSP、Ara 1.6T PAM4光学DSP等方案,展示了下一代AI网络在性能、能效和架构灵活性上的突破 [27][28]
“小龙虾”概念大涨!黄仁勋:OpenClaw将是下一个ChatGPT!
硬AI· 2026-03-18 15:52
市场反应与股价表现 - 英伟达CEO黄仁勋对OpenClaw的看多表态,迅速引爆市场情绪,推动相关中国概念股集体走强 [3][7] - 3月18日,港股AI概念股MiniMax盘中一度涨幅高达23%,智谱(Zhipu)涨幅最高达16%,A股云服务商优刻得同样上涨超10% [3] - 市场分析认为,黄仁勋的表态正在推动市场对AI智能体的乐观情绪升温,英伟达计划推出相关产品意味着“龙虾”热潮才刚刚开始 [2][8] OpenClaw平台与行业影响 - OpenClaw是一款基于大语言模型的开源自主AI智能体平台,于去年11月正式上线 [8] - 与传统聊天机器人不同,OpenClaw能够在极少人工干预的情况下自主完成任务、作出决策并采取行动 [8] - 该工具在中国已积累起近乎狂热的用户群体,成为继DeepSeek之后引爆本土AI热潮的又一重要催化剂 [8] - 腾讯、阿里巴巴、百度等主要中国云计算厂商已相继将OpenClaw纳入服务体系,向企业客户提供部署支持 [8] - MiniMax、智谱等大语言模型厂商则为智能体的运行提供算力支撑 [8] 黄仁勋的核心观点与行业定位 - 黄仁勋在GTC大会上公开表态,称OpenClaw“绝对是下一个ChatGPT”,并将其定性为一次基础性变革 [7] - 黄仁勋呼吁全球企业制定OpenClaw战略,即代理系统战略,并称“这就是新型计算机” [10][11] - 黄仁勋给予OpenClaw极高评价,认为其“在最恰当的时间为行业提供了最需要的东西”,并强调其影响是难以置信的 [11] - 为阐明OpenClaw的行业地位,黄仁勋将其与科技史上的底层基础设施作类比,认为其对AI的意义等同于Windows对个人电脑的意义,其产业影响力可与Linux、Kubernetes及HTML相提并论 [11] - 黄仁勋强调,OpenClaw让整个行业能够抓住这个开源堆栈,并基于此开发应用去创造价值 [12] 相关公司动态与行业趋势 - 3月18日,MiniMax发布新一代Agent旗舰大模型M2.7,首次展示“模型自我进化”路径 [8] - MiniMax的新模型通过构建Agent Harness体系,深度参与自身训练与优化,在部分研发场景中可承担30%-50%的工作量,并在内部评测集上实现约30%的效果提升 [8][9] - 阿里云官网发布公告,因全球AI需求爆发、供应链涨价,其AI算力、存储等产品最高涨价34% [9]
Xeon 6将作为英伟达DGX Rubin主CPU,英特尔股价涨3.3%
硬AI· 2026-03-17 17:11
文章核心观点 - 英特尔与英伟达的合作取得重要进展,其Intel Xeon 6处理器被选为英伟达下一代DGX Rubin NVL8系统的主处理器,这标志着双方合作从概念走向落地,并凸显了CPU在AI系统架构中日益提升的重要性,特别是在行业向实时推理转型的背景下[1][3][5] 行业趋势与背景 - 人工智能行业正从大规模训练阶段转向“无处不在的实时推理”,这一趋势由代理式AI和推理系统推动[5] - 在此新阶段,主机CPU已成为系统架构中的关键组件,负责系统调度、内存访问、模型安全以及整体吞吐能力的管理[1][5] 合作与市场影响 - 英特尔Xeon 6被选为英伟达DGX Rubin NVL8系统的主CPU,刺激英特尔股价周一一度上涨3.3%[2][3] - 机构认为,此举标志着英特尔与英伟达的合作关系具备了具体落地的形式,未来可从产品发布时间及潜在营收机会角度进行跟踪评估,AI服务器领域的协同效应开始显现[3][6] 产品技术优势 - Xeon 6处理器具备多项系统级优势,包括对高速内存的支持、多种工作负载下的均衡性能、更低的长期总拥有成本以及成熟可靠的企业级软件生态[7] - 在PCIe和I/O方面的能力得到强化,使其能在高带宽、低延迟场景中稳定运行[7] - 在多个关键指标上具备竞争力,包括更高的单位功耗性能、对AI软件栈的全面优化、在关键任务环境中的高可靠性,以及对GPU加速异构系统的高效调度能力[7] - 通过Priority Core Turbo等特性优化数据向GPU的传输效率,并凭借强大的单线程性能承担调度、任务管理和数据流转等关键职责[8] 硬件规格与特性 - 最高支持8TB系统内存,以满足大模型和KV缓存需求[8] - 通过MRDIMM技术实现代际三倍内存带宽提升,显著提高向GPU的数据供给效率[8] - 提供业界领先的PCIe 5.0通道以支持AI加速器[8] - 通过加密缓冲机制实现CPU与GPU之间的数据路径保密计算,并基于硬件的隔离机制保护AI数据与模型安全[8] 系统架构与延续性 - DGX Rubin NVL8系统将集成Xeon 6处理器,其架构延续了此前基于Intel Xeon 6776P的Blackwell平台设计,有助于将既有的性能优势和系统经验平滑过渡到新一代AI系统中[7]
黄仁勋GTC演讲全文:推理时代到来,2027营收至少万亿美元,龙虾就是新操作系统
硬AI· 2026-03-17 17:11
公司战略定位与业绩指引 - 公司将自身定位从芯片公司转变为“AI工厂”和AI基础设施构建者 [5] - 公司CEO对2027年之前的高确信度AI计算需求预期从一年前的5000亿美元上调至至少1万亿美元 [8] - 该需求预期推动了公司股价上涨超过4.3%,并且CEO认为实际需求将远超1万亿美元 [10][12] Token工厂经济学 - 提出“Token工厂经济学”,认为未来数据中心是生产Token的工厂,其商业命脉由每瓦性能决定,在固定电力限制下,每瓦Token吞吐量最高的方案成本最低 [13][15] - 将AI服务划分为四个商业层级:免费层(高吞吐、低速度)、中级层(约每百万token 3美元)、高级层(约每百万token 6美元)、高速层(约每百万token 45美元) [16] - 公司架构能使客户在免费层实现高吞吐量,并在最高价值的推理层级上将性能提升35倍 [18] 新一代硬件系统与架构 - 推出Vera Rubin系统,这是一个100%液冷、端到端优化的完整AI计算系统,安装时间从两天缩短至两小时 [20][75] - Vera Rubin系统在两年内将1吉瓦数据中心的Token生成速率从2200万token/秒提升至7亿token/秒,实现了350倍的性能提升,远超摩尔定律同期的约1.5倍提升 [21][82] - 通过收购Groq并整合其技术,提出非对称分离推理方案,将计算密集的“预填充”阶段交给Vera Rubin,将对延迟敏感的“解码”阶段交给Groq,以解决极速推理的瓶颈 [22][24] - Groq LP30芯片由三星代工,已进入量产,预计第三季度出货 [25][81] 软件生态与智能体革命 - 断言每一个SaaS公司都将转变为AaaS(智能体即服务)公司,并推出企业级NeMo Claw参考设计以保障智能体安全 [28] - 将开源项目OpenClaw形容为“人类历史上最受欢迎的开源项目”,称其在几周内超越了Linux过去30年的成就,并将其定义为智能体计算机的“操作系统” [27][89] - 预测未来职场形态将包括“年薪+Token预算”,工程师的基础年薪可能为几十万美元,公司会额外提供约一半年薪的Token额度,以实现10倍效率提升 [29][95] 技术平台与合作伙伴生态 - CUDA平台诞生二十周年,拥有数千种工具和数十万个开源项目,其庞大的装机量是公司飞轮效应的基石 [35][36] - 公司业务60%来自全球前五大云服务商,40%广泛分布于主权云、企业、工业、机器人和边缘计算等领域 [13][66] - 宣布与多家巨头达成合作,包括IBM、Dell、Google Cloud等,例如与Google Cloud合作将Snapchat的计算成本降低了近80% [45][47] - 宣布Anthropic和Meta正式加入NVIDIA平台,共同代表了全球三分之一的AI算力需求 [66] 行业应用与未来展望 - 公司CUDA-X库已深度布局多个垂直行业,包括自动驾驶、金融服务、医疗健康、工业、娱乐、机器人及电信等 [54] - 过去两年风险投资流入AI初创企业的资金达到1500亿美元,创历史纪录,单笔投资规模跃升至数亿乃至数十亿美元 [58] - 指出过去两年AI推理所需的计算量增长了约10,000倍,使用量增长了约100倍,并认为计算需求总体增长了100万倍 [63] - 公布下一代计算架构Feynman路线图,并透露正在研发部署在太空的数据中心计算机“Vera Rubin Space-1” [30][88]
不用懂代码、不担心数据泄露——阿里云 JVS Claw,普通人养龙虾最快上手工具
硬AI· 2026-03-13 20:47
产品发布与定位 - 阿里云于3月13日发布了一款名为JVS Claw的“一键养虾”平台,其核心定位是让完全没有编程基础的普通人也能拥有属于自己的AI智能体“龙虾”[3][4][6] - 该产品旨在消除用户使用AI助手的传统门槛,如配置API密钥、部署服务器、绑定IM工具和处理安全隐患等,实现“不用部署、不怕死机,预装skill,让用户直接上手”[2][3] 产品核心功能与特性 - **上手便捷性**:用户只需三步、约3分钟即可完成从下载JVS IM客户端、注册账号到激活服务的全过程,全程无需配置节点、申请大模型API密钥或绑定第三方IM工具[6] - **多端支持**:平台支持iOS、Android手机端、网页端与Pad端多端访问,可实现手机查看进度与电脑深度操作的无缝切换[7] - **自进化技能**:产品内置“万能skill”机制,当AI遇到不会的任务时,用户只需指示“如果没有这个技能,请搜索并创建”,AI即可自动检索、创建适配技能并完成任务,无需用户手动配置插件[10] - **技能覆盖场景**:当前已覆盖浏览网页、抓取信息、自动填写表单、执行办公自动化流程等场景,旨在提升采购、运营、研究员等用户的效率[10] 安全架构 - **核心安全设计**:产品通过ClawSpace云端沙箱实现安全隔离,AI的所有操作均发生在阿里云的独立云端容器中,与用户的本地设备存在物理隔离[13] - **具体安全机制**:包含四层保护:1) 数据隔离:每位用户的实例运行在独立的容器化云端环境中;2) 传输加密:采用端到端加密(E2EE);3) 落盘加密:云端存储卷默认加密;4) 权限最小化:默认无法访问用户本地文件,需主动授权[13] - **安全承诺**:官方表示,即使AI出现异常或中毒,也只会影响云端实例,用户的本地设备和内网不会受损[14] 操作透明性与可控性 - **操作可视化**:AI智能体“龙虾”的每一步操作流程会实时显示在屏幕上,任务执行全程透明[15] - **用户可介入**:用户在执行过程中可随时手动介入修正,例如当AI遇到需要登录账号等卡点时,可以避免任务跑偏[15] - **心理安全阀**:这套可视化与可介入机制为非技术背景用户提供了关键的心理安全保障,使用户始终知晓AI在做什么并可以随时叫停[15] 部署模式与资源 - **云端模式**:适合日常轻量任务,具有低资源消耗、安全隔离、7×24小时不掉线的特点,云端节点配备6核/12GB资源,并预装Python、Node.js等开发环境[16] - **本地模式**:适合需要处理私有文档或访问本地数据的场景,可灵活接入私有数据源以满足个性化需求[18] - **未来规划**:产品未来将上线多bot接入功能,支持在同一通道内整合Mac Mini及其他Clawbot,实现多AI智能体协作[18] 市场定位与用户价值 - **目标用户**:针对绝大多数觉得AI智能体“听起来很酷、用起来太难”的普通用户[20] - **核心价值**:通过提供零代码门槛、云端安全隔离、全程可视可控的体验,将AI智能体的使用门槛大幅降低,目标是让用户从下载到跑出第一个任务仅需3分钟[20]