谷歌(GOOG)
搜索文档
Argus上调Alphabet目标价至385美元

格隆汇· 2026-02-09 15:52
目标价与评级调整 - Argus Research将Alphabet的目标价从365美元上调至385美元 [1] - 研究机构维持对Alphabet的“买入”评级 [1]
千亿景林持仓曝光!与东方港湾但斌不谋而合!共识是AI应用!
私募排排网· 2026-02-09 15:00
景林资产美股持仓变动分析 - 截至2025年末,景林资产美股持仓总市值约为40.45亿美元,共有8家公司持仓市值超过1亿美元 [2] - 增持力度最大的公司是谷歌(GOOGL),持股数量增至269万股,较上季度增持52.81%,持仓占比大幅提升11.18个百分点至20.82%,成为第一大重仓股 [2] - 减持力度最大的公司是英伟达(NVDA),去年四季度合计卖出154.09万股,减持幅度高达64.78%,其在投资组合中的占比降至3.86% [2] - 景林资产清仓了谷歌-C(GOOG)、优步(UBER)和Spotify(SPOT) [3] - 景林资产管理合伙人高云程认为,应重视作为重要AI应用入口或平台的公司,如谷歌、Meta、苹果、字节跳动、腾讯、OpenAI等,并预计2026年可能是AI Agent真正普及的元年 [2] 东方港湾美股持仓变动分析 - 东方港湾但斌在2025年四季度同样大笔买入谷歌,其中谷歌-C(GOOG)增持比例超40%,成为其截至2025年末的第一大重仓股,仓位占比高达30.85% [4] - 但斌认为,如果说2025年是人工智能的起步蓄力阶段,那么2026年很可能成为AI应用万马奔腾的一年 [4] - 其持仓中,英伟达(NVDA)持股数量为1,271,525股,变动比例为0.43%,持仓市值为23,713.94万美元,占比18.02% [5] - 东方港湾在当季度清仓了多只股票,包括奈飞(NFLX)和台积电(TSM)等 [5]
在参与OpenAI、Google、Amazon的50个AI项目后,他们总结出了大多数AI产品失败的原因
36氪· 2026-02-09 14:57
AI产品开发的现状与核心矛盾 - 借助Coding Agent等工具,构建AI产品的技术门槛和启动成本已急剧降低,将想法变为可交互的原型变得前所未有的容易[1] - 但一个刺眼的矛盾也随之浮现:大多数AI产品仍在走向失败[1] - 当前构建的成本已经非常低,真正昂贵的是设计,是对产品要解决什么痛点的深度思考,对问题本身和产品设计的执着被低估,而单纯追求“快点做出来”被高估[1][36] AI产品构建的挑战与根本差异 - 2024年很多领导者对AI持怀疑态度,认为可能是泡沫,很多所谓“AI用例”仅仅是“在你自己的数据上套一层Snapchat滤镜”[4] - 2025年,很多公司开始真正反思用户体验和业务流程,意识到构建成功的AI产品必须先拆解现有流程再重建,但执行依然非常混乱,领域只有三年左右历史,缺乏成熟方法论[4] - AI产品的生命周期与传统软件截然不同,打破了PM、工程师、数据团队之间传统的分工,需要更紧密、更复杂的协作[4] - 构建AI系统与传统软件的核心差异之一是“非确定性”,AI产品是与一个非确定性的API打交道,用户输入和模型输出都具有高度流动性和不可预测性[5] - 第二个关键差异是代理性与控制权之间的权衡,自治越高,控制越少,而信任必须通过时间和表现来积累[6] 成功的AI产品开发路径与框架 - 正确的做法是刻意从影响范围小、人工控制强的场景开始,逐步理解当前能力边界,再慢慢增加自治性、减少人工干预[6] - 几乎所有成功的案例,都是从极简结构起步,再不断演化而来的[7] - 以客户支持为例,更合理的第一步是让AI为人工客服提供建议,由人类判断建议的有用性,通过反馈回路识别系统盲点并进行修正,当建立起足够信心后,才可以让AI直接向用户展示答案,并逐步增加复杂能力[8] - 从更宏观的角度看,AI系统的核心在于“行为校准”,关键在于避免破坏用户体验和信任,做法是在不影响体验的前提下,逐步减少人工控制,并以不同方式约束自治边界[9] - 例如,医疗保险预授权中,低风险项目可由AI自动审批,而高风险项目则必须保留人工审核,并持续记录人类的决策行为以构建反馈飞轮[9] - 行业提出了“CC/CD(持续校准、持续开发)”框架,其核心是在迭代初期采用“低自治、高控制”的方式,限制系统可做的决策数量,引入人在回路,随着理解加深,再逐步提高自治程度,以逐步建立对系统行为的认知飞轮[25][28][32] - 以客服Agent为例,演进过程通常拆成三个阶段:第一阶段是“路由”,判断工单该被分配到哪个部门;第二阶段是“副驾驶”,Agent根据标准操作流程生成回复草稿由人工修改确认;第三阶段是端到端的自动处理[29][30] 成功构建AI产品的关键要素 - 成功的公司通常具备三个维度:优秀的领导者、健康的文化,以及持续推进的技术能力[14] - 领导者必须愿意承认过去积累的直觉在AI出现后需要被重新学习,需要重建判断力,接受“我的直觉可能不再完全正确”这一事实,很多真正成功的团队是从这种自上而下的转变开始的[14] - 在文化上,需要领导者建立一种“赋能型文化”,强调AI是用来增强个人能力、放大产出的工具,而不是威胁,以形成组织合力[15] - 在技术层面,成功的团队对自身工作流有近乎执念般的理解,清楚哪些环节适合AI,哪些地方必须有人参与,关键不在于迷信技术,而在于为每个问题选择合适的工具[16] - 成功的团队非常清楚自己在和一个非确定性的API打交道,因此会以完全不同的节奏推进开发,迭代得非常快,但前提是不破坏用户体验,同时快速建立反馈飞轮[16] - 如今竞争焦点并不是谁最早上线Agent,而是谁最早构建起持续改进的机制,真正能产生显著ROI通常至少需要四到六个月,即便拥有最好的数据和基础设施[16] 关于评估(Eval)与监控的见解 - 大家陷入了一种错误的二元对立:要么eval能解决一切,要么线上监控能解决一切[17] - eval本质上,是把你对产品的理解、你的价值判断,编码进一组数据集,而生产环境监控则是在产品上线后,通过关键指标和用户行为反馈真实使用情况[17] - 真正的问题不在于“选哪个”,而在于你想解决什么,构建可靠系统,上线前必须有底线测试,上线后需要监控来提示问题,发现新的失败模式后再反过来构建新的eval集,这个循环缺一不可[17] - “eval”这个词在2025年下半年被赋予了沉重的含义,出现了“语义扩散”,不同人看到的是它的不同侧面,但所有资深从业者都会告诉你:一切取决于上下文,不要迷信固定方法论[18][19] - 在Codex团队,采取一种相对平衡的方式:eval是必要的,但同时必须高度重视用户反馈,会通过A/B测试来验证新版本是否还在“做对的事情”,并非常主动地关注社交媒体上的用户反馈[21][22][23] AI产品面临的风险与当前采用阶段 - 一篇研究指出,约**75%** 的企业认为“可靠性”是他们在AI项目中面临的最大问题,这也是他们迟迟不敢将AI产品直接面向用户的重要原因,目前很多AI产品更多集中在提升生产力,而不是彻底替代端到端流程[11] - 提示注入(prompt injection)和越狱(jailbreaking)对AI产品来说几乎是一个“生存级风险”,它可能既没有成熟解法,甚至在理论上也很难被彻底解决[11] - 一旦AI系统真正进入主流应用,安全性会成为一个非常严重的问题,尤其是在面对非确定性API的情况下,几乎无法完全防范[12] - 2025年是AI Agent和企业尝试落地AI的一个高峰期,但整体渗透率依然不高,很多流程还远未被真正改造[12] - 在大多数公司还没走到能充分获益的阶段时,只要在关键节点引入“人在回路”,其实可以规避相当一部分风险[13] 被高估与低估的概念及未来展望 - 多Agent系统概念被严重误解,很多人认为拆分子任务交给不同Agent就能实现“Agent乌托邦”,但现实并非如此,在当前的模型能力和工程范式下,期望Agent“自发协同”往往行不通[35] - 相比预先设计一堆各司其职的Agent,更现实的路径可能是让一个更强的Agent自己完成任务拆解和协调,或者由人来编排多个Agent[36] - Coding Agent仍然被低估,它的真实渗透率依然很低,而潜在价值却极大,2026年会是集中优化这些流程、释放巨大生产力的一段时间[35] - eval是被误解的概念,它当然重要,但“不断切换工具、学习新工具”这件事被高估,真正值得投入精力的是对要解决的业务问题保持极度专注[36] - 非常看好“后台型”或“主动型”Agent,一旦Agent被更深地嵌入真实工作流,获得更丰富的上下文,就能由Agent主动反过来提示用户,这会在2026年成为非常重要的产品方向[38] - 期待2026年的多模态体验,如果能构建真正丰富的多模态交互,将会更接近人类对话的真实复杂度,并能解锁大量此前无法触及的数据资源[38][39] 对AI产品构建者的核心建议 - 对于当下的产品构建者而言,实施成本在未来几年会变得极低,真正稀缺的将是设计能力、判断力和审美品位[40] - 每个人的价值会更多体现在品味、判断,以及那些“只属于你”的东西上,这种能力并不一定来自年龄或多年经验[40] - 真正重要的是主动性和责任感,“忙碌但无效”的工作时代正在结束,必须思考端到端的流程,以及如何创造更大的影响[41] - 坚持和承受“痛苦”的能力同样被严重低估,真正的差别在于是否愿意经历反复试错的过程,这种在实践中积累的经验会沉淀为难以复制的优势[41] - 专注于问题本身,AI只是工具,关键在于是否真正理解自己的工作流,真正的差异化永远来自对用户和问题的深度理解[42]
马斯克下注光伏制造,太空光伏板块再掀涨停热潮!协鑫集成喜提四连板,光伏ETF汇添富(516290)涨超3%!太空光伏需求迎指数级增长?
搜狐财经· 2026-02-09 14:35
市场表现与资金动向 - 2月9日A股市场强劲反攻,沪指涨超1%,两市超4400股上涨,太空光伏概念爆发,带动光伏、电池等新能源板块走强 [1] - 截至当日14:15,光伏ETF汇添富(516290)放量大涨近4%,冲击两连阳,已连续2日吸金超2000万元 [1] - 电池ETF汇添富(159796)震荡冲高,涨1.78%,成交额超2.1亿元,交投活跃 [1] - 光伏ETF成分股多数冲高,聚和材料20cm涨停,协鑫集成连收4个涨停板,TCL中环10cm涨停,爱旭股份、罗比特科等涨超9%,隆基绿能涨超4% [2] 太空光伏行业前景与市场空间 - 中信证券表示,SpaceX引领商业航天发展,加快星链建设和卫星升级,并申请部署百万颗卫星,正式进军太空数据中心,太空光伏是现阶段卫星和轨道算力的唯一能源 [5] - 中信证券测算,在保守情景下,2030年全球太空光伏需求量和市场空间或分别达1GW和800亿元以上;在乐观情景下,2030年全球太空光伏需求和市场空间或分别达70GW和近3万亿元 [5] - 中信证券预计,未来5年,太空P型HJT和钙钛矿电池市场成长空间或达百倍、甚至千倍以上 [5] - 根据中信证券预测表格,全球太空光伏总需求在2030年保守情景下为1GW,乐观情景下达72GW,终极目标为1150GW [6] - 全球太空光伏市场空间在2030年保守情景下为867亿元,乐观情景下达29179亿元,终极目标为173783亿元 [6] - 太空P-HJT电池需求在2030年保守情景下为1.2GW,乐观情景下达61GW,终极目标为747GW;其市场空间在2030年保守情景下为580亿元,乐观情景下达24490亿元,终极目标为112103亿元 [6] - 太空钙钛矿电池需求在2030年保守情景下为0.2GW,乐观情景下达10.8GW,终极目标为402GW;其市场空间在2030年保守情景下为107亿元,乐观情景下达4330亿元,终极目标为60330亿元 [6] 关键驱动事件与技术路线 - 市场传闻马斯克团队近期秘密走访多家中国光伏企业,并重点考察了有异质结、钙钛矿技术路线的光伏企业,协鑫集团、晶科能源、TCL中环等证实有过接洽 [3] - 马斯克在2026年达沃斯论坛重点提到太空光伏,“太空AI能源网络”再添增长极 [4] - 特斯拉计划自建100GW地面光伏产能,带动储能设备需求 [4] - 马斯克在2026年达沃斯论坛透露,特斯拉和SpaceX或分别基于地面用电和太空光伏需求规划在未来几年各建100GW光伏上下游制造产能 [6] - 预计现阶段特斯拉或将主要采用TOPCon技术方案,SpaceX或将选定P型HJT技术路线 [6] - 中国光伏设备龙头具备高效迭代和快速响应等突出优势,更契合特斯拉和SpaceX对设备供应商的高标准和严要求,各环节头部企业有望斩获其设备供应链较高份额 [6] 储能需求与关联机会 - 东吴证券表示,AI&政策带动全球储能装机需求快速增长,海外AI数据中心等负荷侧需求爆发,叠加OBBA法案落地,储能IRA补贴保留,出现抢装热潮 [7] - 特斯拉计划自建100GW地面光伏产能,若考虑到美国光储平均3.3h配储时长,或带动超300GWh储能设备需求 [7] - 特斯拉外,微软、谷歌、亚马逊等科技巨头均在积极布局AI数据中心,光伏配储能或是最可行的清洁能源解决方案,预计将进一步放大储能设备需求 [7] - 美国电网在AI时代严重错配,燃气轮机产能不足下,光储方案将陆续放量 [7] 行业趋势与产品信息 - 在政企联动“反内卷”、新技术加速迭代的背景下,光伏行业有望迎来基本面修复,叠加太空光伏等热点催化,板块情绪有望迎来拐点 [8] - 光伏ETF汇添富(516290)的管理费率为0.15%,托管费率0.05%,为光伏主题ETF中的低费率品种,仅为市场主流费率的三分之一 [8] - 电池ETF汇添富(159796)标的指数储能含量大幅领先同类,固态电池含量高,前瞻性地瞄准了产业技术迭代和需求爆发的核心驱动力,其管理费仅为0.15%/年,同类最低一档 [8]
AI算力的下一个战场,已经延伸到了太空?
36氪· 2026-02-09 14:26
文章核心观点 - 将数据中心部署到太空正从一个科幻概念转变为科技巨头们积极布局的现实战略,旨在解决地面AI算力发展面临的能源、散热和延迟等核心物理瓶颈 [1][3] - 太空数据中心建设目前主要探索“在轨边缘计算”和“轨道云数据中心”两条技术路径,前者已进入实践验证阶段,后者则代表更长期的规模化野心 [13] - 尽管面临技术、工程成本及监管等多重挑战,且短期内无法替代地面设施,但太空数据中心为算力的长期增长提供了一条不受地面资源约束的可行路径,未来可能形成天地混合的算力体系 [60][62][63] 地面数据中心面临的挑战 - **能源消耗巨大**:超大规模AI数据中心的持续用电规模已从几十兆瓦跃升至数百兆瓦,甚至逼近1吉瓦(GW),1吉瓦功率全年运行耗电约8.8太瓦时,相当于一座中等规模城市一年的用电量 [6] - **散热成为昂贵系统难题**:以H100 GPU为例,单卡功耗近700瓦,集群散热成本高昂;大型数据中心每消耗1千瓦时电力,通常需要1至2升淡水用于冷却,一个百兆瓦级AI数据中心日耗水量可达上百万升 [6] - **能源获取竞争激烈**:AI巨头为保障电力供应,采取收购发电厂、自建电网、抢购燃气轮机乃至研究核能等多种手段,地面已陷入“AI能源战争” [8] 太空数据中心的优势 - **近乎无限且稳定的能源**:近地轨道太阳能利用效率是地面的8到10倍,可提供24小时不间断、几乎零成本的清洁能源;太阳本身被视为一个稳定运行了45亿年的天然核聚变反应堆,能量极其充沛 [9] - **高效自然的散热环境**:太空背景温度仅约3开尔文(-270℃),热量可通过辐射方式直接排向深空,理论上可使数据中心能源使用效率(PUE)无限逼近于1,即几乎所有电力都用于计算而非制冷 [10][11] - **极低的通信延迟**:光在真空中的传播速度比在光纤中快30%,通过激光链路可实现“全球算力秒达”,太空算力节点可能成为更接近用户的快速中继节点 [13] 当前主要技术路径:在轨边缘计算 - **核心逻辑**:将AI加速器直接部署于在轨卫星,使数据(如遥感图像)在太空就地处理、筛选和压缩,减少下行数据量,降低延迟和通信能耗 [16][17] - **实践案例**:初创公司Starcloud与英伟达合作,于2023年11月将搭载H100 GPU(系统重60公斤)的Starcloud-1卫星送入轨道,并成功在太空中完成调用Gemma模型、训练NanoGPT以及实时识别野火等任务 [19] - **技术特点与意义**:使用成熟的数据中心级硬件进行适应性封装,任务专用,技术难度相对可控;商业模式清晰,可立即提升效率;更重要的是为验证算力在太空辐射环境下的长期稳定运行提供了关键第一步 [21][22][24][25] - **局限性**:受卫星体积、供电和散热限制,无法无限堆叠GPU,不适合训练超大模型,主要服务于图像识别、目标检测等特定任务,存在明确的天花板 [25][27] 当前主要技术路径:轨道云数据中心 - **谷歌的Suncatcher计划**:目标是在轨道上构建固定位置的算力平台,作为地面云计算的补充;计划于2027年初发射两颗原型卫星进行测试;设想由81颗卫星组成半径1公里的集群,卫星间通过自由空间光通信(FSO)互联并保持近距离编队飞行 [28][30][31][33] - **SpaceX基于Starlink的演进路线**:依托现有约9300颗活跃卫星(占所有在轨可运行卫星约65%)组成的、已具备激光链路的星座网络,通过后续发射专门的“算力增强型卫星”来逐步使网络具备分布式计算属性,形成分层式轨道云系统 [34][36][38][40] - **太空站式集中数据中心**:探索在国际空间站或大型在轨平台集中部署机柜级算力,结构接近地面数据中心,但面临极高的发射建设成本、有限扩展性及在轨维护挑战,目前多处于研究和早期验证阶段 [41][42][44] 建设挑战与成本分析 - **技术挑战**:需重新设计卫星的整个工程逻辑,包括扩大太阳能板面积以提供持续稳定电力、在卫星平台内集成计算载荷、以及增加专门的辐射散热板来处理持续发热问题 [47][48] - **工程与成本挑战**:建设流程复杂且容错率低;当前1GW太空数据中心的预估建设成本可能高达千亿美元,其中仅发射和在轨组装成本就可能达到200至300亿美元(基于将上万吨级系统送入轨道的测算) [51][53] - **成本未来展望**:尽管前期投入巨大,但在发射成本大幅下降(如SpaceX星舰实现完全复用后可能低至每公斤15美元)的前提下,凭借近乎零的长期运行能源成本,其全生命周期成本未来有望与地面数据中心接近甚至更低 [33][55][56] - **监管挑战**:大规模部署将加剧近地轨道拥挤,增加碰撞风险与太空垃圾问题,需要建立全新的跨国界轨道治理机制,包括更严格的离轨与退役标准 [57][59] 未来前景与定位 - **角色定位**:在可预见的未来,太空数据中心并非地面数据中心的替代者,而是作为补充,与地面设施共同构成“混合算力体系” [60][63] - **适用场景**:特别适合处理对能耗要求极大、对延迟和可靠性要求相对不高的计算任务,如部分AI训练;也适用于在太空采集并需要就地计算的数据,充当边缘数据中心 [64] - **长期意义**:为持续膨胀的算力需求开辟一条不受地面能源、散热、用水及土地资源约束的增长路径,重新定义算力的物理边界,标志着算力开始被视为一种需要跨越行星尺度来规划的基础资源 [62][65][67]
美媒:谷歌公司近千名员工签署公开信,谴责ICE等机构的行动
环球网· 2026-02-09 13:43
公司内部动态与员工诉求 - 谷歌公司内部有近1000名员工签署公开信,谴责美国移民与海关执法局及海关与边境保护局近期的行动 [1] - 员工在信中强烈反对公司与美国国土安全部、海关与边境保护局以及移民与海关执法局的合作 [3] - 员工敦促公司领导层公开所有与海关与边境保护局和移民与海关执法局的合同及合作情况,并终止与这两个机构的合作关系 [1][3] - 员工呼吁公司承认有员工面临移民与海关执法局构成的危险,并要求公司采取保护员工的措施 [3] 公司业务与政府合作 - 员工在信中提及,谷歌云服务被用于海关与边境保护局的监视活动以及移民与海关执法局使用的移民操作系统 [3] - 海关与边境保护局还使用了谷歌的生成式人工智能技术 [3] 行业相关事件背景 - 美国明尼阿波利斯市上个月发生移民执法人员枪击致死事件,在美国国内引发不满 [3] - 苹果公司首席执行官在一份内部备忘录中表示,对该事件感到心碎 [3]
Capex超预期背景下的超跌修复——海外算力大涨点评
每日经济新闻· 2026-02-09 13:15
市场表现 - 海外算力修复带动相关ETF上涨,通信ETF(515880)和创业板人工智能ETF(159388)盘中涨幅超过4% [1] 上涨因素分析 - 主要云服务提供商(CSP)资本开支(Capex)增速远超市场预期,2026年指引显示强劲增长:谷歌2026年资本支出预计中值为1800亿美元,同比接近翻倍;Meta全年指引为1150-1350亿美元,同比增长73%;亚马逊指引为2000亿美元,同比增长53% [2] - 市场此前预期2026年北美CSP资本开支增速约为42%,实际财报数据大幅超出该预期 [2] - 共封装光学(CPO)渗透率超出预期,在scale up架构中将成为增量市场,与国内光模块厂商存在合作机会,目前并非完全替代可插拔光模块的关系 [3] - 市场情绪出现超跌修复,美股上周五强势修复后,A股今日跟随修复,此前市场因成交量萎缩、资金情绪等因素表现疲软 [3] 后市展望 - 美股财报再度印证人工智能(AI)发展的确定性,算力供应短缺状态持续:谷歌管理层表示算力紧缺将贯穿全年,公司仍处于算力供应紧张状态 [4] - AI应用需求旺盛:谷歌Gemini 3.0成为公司历史上采用最快的模型,其应用月活跃用户超过7.5亿,谷歌还与苹果合作开发下一代基础模型 [4] - 主要云厂商均强调AI需求强劲:微软表示Azure AI供不应求,亚马逊表示变现速度取决于安装速度 [4] - AI投资已产生实际回报:谷歌管理层强调AI投资已在各业务板块产生实际收入回报 [4] - A股光模块、服务器等环节位于全球AI产业链核心位置,拥有深厚壁垒和份额优势,在2026年资本开支超预期的背景下,行业景气度进一步加强 [4]
亚马逊1.39万亿、谷歌1.25万亿、微软1万亿,全球三大云厂商开启烧钱竞赛
搜狐财经· 2026-02-09 11:49
全球云服务市场增长核心驱动力 - 生成式AI是推动全球云基础设施服务市场增长的核心驱动力 [1] - 2025年全球企业在云基础设施服务方面的支出达到4190亿美元,创下三年来的最高增长率 [1] 市场竞争格局 - 亚马逊、微软与谷歌是全球三大云服务厂商,合计市场份额达63% [1] - 亚马逊市场份额为28%,微软为21%,谷歌为14% [1] 主要厂商资本支出计划 - 为提升竞争力,三大云厂商资本支出规模持续飙升,预计累计支出约5300亿美元 [3] - 亚马逊预计2026年资本支出约2000亿美元 [3][6] - 谷歌预计2026年资本支出达1750-1850亿美元,较2025年的914.5亿美元大幅提升近一倍 [7] - 微软单季资本开支高达375亿美元,以此估算全年支出约1500亿美元 [5] 微软业绩与市场表现 - 微软2026财年第二财季整体营收达813亿美元,同比增长17%;净利润为385亿美元,同比增长60% [4] - 该季度微软云收入为515亿美元,同比增长26% [4] - 智能云部门收入为329亿美元,同比增长29% [4] - Azure及其他云服务收入同比增长39%,AI是驱动云服务增长引擎 [4] - 财报发布当天股价大跌9.99%,市值蒸发3574亿美元 [4] - 市值跌破3万亿美元至2.98万亿美元,相比历史峰值4.15万亿美元减少1.17万亿美元 [5] - 云业务的商业剩余履约义务同比增长超过一倍,达到6250亿美元,其中近一半由OpenAI贡献 [5] 亚马逊业绩与市场表现 - 亚马逊2025年总营收高达7169亿美元,同比增长12%,净利润777亿美元 [6] - 亚马逊云服务(AWS)2025年营收1287亿美元,同比增长20%,营业利润456亿美元 [6] - AWS积压订单总额高达2440亿美元,同比增长40% [6] - 亚马逊市值约为2.25万亿美元 [6] 谷歌业绩与市场表现 - 谷歌2025年全年营收4028亿美元,同比增长15%,净利润为1321亿美元,同比增长32% [7] - 谷歌云2025年Q4营收176.6亿美元,同比大增48% [7] - 谷歌云2025年全年总收入超700亿美元 [7] - 谷歌云未完成订单金额高达2400亿美元,同比增长超一倍 [7] - 谷歌市值已突破4万亿美元大关,成为资本市场炙手可热的AI公司 [7] 各公司AI战略与竞争态势 - 微软与OpenAI深度捆绑,构建Azure AI基础设施,云服务市场份额提升至21% [9] - 谷歌凭借从Gemini到TPU芯片的全栈产品集成,驱动云业务高速增长 [8] - 在AI大模型时代,亚马逊的市场份额逐渐被微软及谷歌所吞噬 [9] - 谷歌云不仅是公司整体业绩的增长引擎,也是支撑其资本市场表现的核心因素,有望借AI浪潮与英伟达争夺全球市值冠军 [9]
CSP大厂加码投资AI,原厂受益
搜狐财经· 2026-02-09 10:51
AI基础设施投资规模 - 全球四大云服务提供商今年将追加投入**6600亿美元**用于AI基础设施建设,较去年投资规模增长近**2000亿美元**[1] - 四大云服务商今年总投资规模合计达**660亿美元**,较去年**400亿美元**的基数增长**65%**[3] 主要云服务提供商投资计划 - 亚马逊今年AI投资预算达**200亿美元**,较证券机构预测的**1446亿美元**大幅上调,同比去年总投资额增长**60%**[3] - Meta今年AI设备投资规模最高将达**135亿美元**,同比去年增长**74%**[3] - 谷歌公布**185亿美元**投资计划[3] - 微软公布**140亿美元**投资计划[3] 投资驱动因素与行业影响 - 亚马逊加码投资基于现有服务需求强劲及AI、半导体、机器人、低轨卫星等领域的重大机遇,长期看好投资回报率[3] - 尽管业内出现“AI泡沫”争议,但相关大型科技公司仍持续加码投资[1] - 云服务提供商正加速布局,将成为存储原厂业绩的催化剂[3] - 三星电子、SK海力士等存储原厂将成为主要受益方[1]
从“更快”到“更省”:AI下半场,TPU重构算力版图
36氪· 2026-02-09 10:47
文章核心观点 - 全球AI算力竞争格局正经历从“训练为王”到“推理为王”的范式转变,成本效率成为核心竞争焦点 [1][2] - 以谷歌TPU为代表的专用架构(ASIC)芯片,凭借在推理场景下的极致能效和成本优势,正崛起为英伟达GPU的有力挑战者,重塑算力权力版图 [1][4][7] - 中国AI芯片企业,如奕行智能,通过“对标前沿、融入生态、自主创新”的策略,在全栈AI基础设施竞争中找到了突破口 [13][26][32] 行业趋势与格局演变 - **竞争范式转移**:AI算力逻辑从“训练为王”转向“推理为王”,规模化应用阶段的核心议题是降低每次推理的成本 [1][2] - **成本驱动重塑**:行业关注点从单纯算力规模转向“Token per dollar”(每美元产出的Token量),以降低服务成本,推动AI像电力一样普及 [4] - **专用架构崛起**:在“成本为王”背景下,以谷歌TPU为代表的ASIC芯片因极致效率成为头部AI公司在英伟达之外的第二选择,标志着算力竞争格局的转折点 [4][7] - **商业部署加速**:Anthropic与博通签订价值高达210亿美元的TPU订单,标志着ASIC芯片从技术探索进入大规模商业部署阶段 [7] - **生态博弈加剧**:OpenAI仅凭“威胁购买TPU”的筹码,就迫使英伟达生态链做出让步,使其计算集群总拥有成本下降约30% [7] 技术路径与竞争优势(以谷歌TPU为例) - **硬件架构创新**:TPU采取精简架构,专注于矩阵运算,并引入独特的脉动阵列设计,让数据如流水般在计算单元间连续流动,大幅减少对寄存器的频繁读写 [8] - **能效瓶颈突破**:配合大容量片上SRAM缓存与高效数据搬运引擎DMA,TPU显著降低了“数据搬运”这一主要能耗瓶颈 [8] - **成本优势显著**:从TPU v6到TPU v7,谷歌已将每百万token的推理成本降低了约70%,TPU v7的成本已降至与英伟达GB200 NVL72(每百万token成本约0.27美元)相当甚至更优的水平 [4] - **软件生态破局**:通过“硬件进化、软件开源”策略,谷歌的XLA编译技术及OpenXLA开源项目,打通了从多框架模型到不同硬件的统一编译路径,并与Meta合作推进TorchTPU项目,实现对PyTorch的原生支持,降低用户迁移成本 [10][12] 中国企业的对标与创新(以奕行智能为例) - **硬件架构对标**:公司采用类TPU架构,其矩阵、向量、标量的精简设计完全匹配大模型计算特点,降低了传统GPGPU架构中约10%-20%的额外调度与资源分配开销 [14] - **核心引擎优化**:大尺寸矩阵运算引擎采用类TPU的双脉动流水设计,数据复用率提升数倍,并显著减少数据前处理开销 [14] - **存储与数据搬运创新**:高性能4D DMA引擎通过一次操作即可完成4D数据的整体搬移与变换,大容量片上缓存使数据访问速度相比DDR方案提升1–2个数量级,近存计算设计使Flash Attention关键算子利用率相比竞品提升4.5倍 [15] - **指令集前瞻布局**:率先引入RISC-V+RVV(向量扩展)指令集,并支持RVV 1024 bit位宽,其架构中图灵完备的RISC-V保障通用计算,模块化设计支持扩展专用AI指令 [15][16] - **产品商业化进展**:基于类TPU架构+RISC-V底座推出的国内首款RISC-V AI算力芯片Epoch系列,于2025年启动量产,在头部系统厂商、互联网、数据中心及行业客户获得商业突破,实现大规模量产出货 [16] 关键技术演进方向 - **精度与能效平衡**:“低位宽、高精度”数据格式是突破能效瓶颈的关键路径,例如TPU Tensor Core在FP8模式下可提供2倍于BF16的算力密度,TPU v7 (Ironwood)的FP8峰值算力达到4.6 PetaFLOPS,而BF16仅为2.3 PetaFLOPS [18] - **中国企业技术跟进**:奕行智能的AI芯片在国内率先支持DeepSeek所需的基于分块量化的FP8计算精度,并在新一代产品支持NVFP4、MXFP4、MXFP8、MXINT8等前沿数据格式,以高效释放算力并降低存储开销 [19] - **组合技术红利**:“拓宽数据通道”(支持RVV 1024 bit位宽)与“压缩信息体积”(支持低位宽浮点精度)的双重组合,带来了算力吞吐增长与存储成本下降 [19] 软件与生态构建 - **软件栈兼容性**:奕行智能深度融合谷歌开源的StableHLO和XLA技术,全面支持PyTorch、TensorFlow、JAX、ONNX等主流框架,其智能编译器ACE已接入OpenXLA体系,可无缝迁移至TorchTPU方案 [20] - **编程模型创新**:推出原生适配Tile(分块)的动态调度架构,通过“虚拟指令+智能编译器+硬件调度器”的闭环,将复杂指令依赖与内存管理交由硬件自动完成,打破传统静态优化的性能上限 [23] - **开发生态建设**:独创VISA虚拟指令集技术,在硬件与上层软件间建立“标准翻译桥梁”,正与Triton社区推进合作,将Triton编译流引入RISC-V DSA后端,并计划开源虚拟指令集,共同打造面向RISC-V DSA的“CUDA式”开发生态 [23][26] 全栈竞争与系统级优化 - **竞争维度升级**:AI算力竞争已从单一芯片性能较量,升级为覆盖芯片、互联、软件与系统优化的全栈基础设施生态之争 [27] - **互联技术关键性**:高速互联技术是构建算力效率护城河的关键一环,例如英伟达的NVLink技术支撑了其GB200 NVL72系统的高效Scale Up互联架构 [27] - **自主互联方案**:奕行智能自研的互联技术方案ELink,支持超大带宽与超低延迟的Scale Up扩展,其任意点对点带宽可达传统互联方案的7倍,根据不同组网方案单节点聚合带宽可达14.2倍,有效支持大模型高速推理 [27][30] - **前沿功能支持**:ELink配合交换侧,已支持前沿的“在网计算”功能,可将部分计算卸载至网络交换节点,减轻带宽负担并降低通信延迟 [28] - **协议兼容与灵活性**:ELink全面支持RoCEv2、SUE、EthLink、C-Link等主流互联协议,能与支持上述协议的设备无缝高效互联,并支持800G/400G/200G可配置以太网标准协议 [28]