Workflow
Gemini系列模型
icon
搜索文档
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:30
文章核心观点 - 2025年全球大模型产业进入以“推理成本”和“实用性”为核心的“祛魅”与工业化深水区,竞争焦点从技术探索转向技术与需求的双向赛跑[3] - 市场视角的转变为中国AI创造了“变道超车”的时机,中国大模型的发展路径从“参数为王”转向“产业为本”,展现出架构创新实用主义、商业化全栈服务深入和生态布局全球化责任等韧性[4] - 坚持长期主义道路,使得“中国方案”在AI工业化时代比以往任何时候都更有可能拔得头筹[2][5] 大模型产业化趋势与角色转变 - 大模型在产品形态上呈现“隐形”趋势,从台前走向幕后,成为驱动产业智能化的“超级底座”或“超级配角”[6][7][8] - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”,例如小鹏汽车基于阿里云算力支持,建成国内汽车行业首个10 EFLOPS规模的AI算力集群,实现从云到端全链路迭代周期平均5天一次[10] - 在制造业,大模型深入生产线,例如三一重工基于千问大模型打造50多个AI Agent覆盖全链路,通过全参数微调将数十年非标经验内化为可复制的数字资产[11] - 产业化反向定义技术,大模型必须成为实用、好用、企业可负担的“配角”,解决工厂流水线延迟、金融风控零容忍、智能硬件端侧功耗等具体场景问题[12] 中国大模型的效率进化与生产力提升 - 国产大模型重新定义SOTA标准,从追求榜单高分转向关注单位算力下的效率和生产力,核心是让每一块钱投入换回实际效率提升[16] - 在“卷效率”道路上实现降维打击,重点解决“算力贵、推理慢、部署难”三大产业化难题[18] - 千问大模型通过架构创新提升效率,例如千问3采用混合推理架构与高稀疏度MoE技术,将800亿参数智力压缩进每次仅激活30亿参数的推理中,训练与推理成本降低90%[18] - 在多模态可控性方面取得工业化突破,万相Wan 2.2作为业界首个MoE视频生成模型节省50%算力,万相Wan 2.6成为国内首个支持角色扮演功能的视频模型[19] - 算力效率进化打破云与端界限,千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的大模型可在手机等消费级硬件上流畅运行[19] - 在长文本处理上实现速度飞跃,千问2.5-1M将推理速度提升近7倍,使处理百万字级别文档从“分钟级”变为“秒级”[20] - 效率进化直接转化为生产力质变,例如海艺AI接入万相2.6后用户内容创作效率提升6倍,智联招聘利用AI将人岗匹配率平均提升超70%[23] 开源生态与中国AI的全球竞争力 - 生态决定AI企业能走多远,在全球巨头转向闭源趋势下,阿里云坚持开源大模型系列,将其作为有效的生态竞争策略[25][26] - 阿里云是全球唯一同时拥有全模态开源大模型和全栈AI服务的厂商,“左手模型、右手基建”的生态位使其在算力调度与应用开发底层逻辑中具备独特竞争力[26] - 开源策略带来“众包迭代”,千问大模型系列被全球开发者在极端场景下测试与魔改,其进化速度超越了实验室封闭模型,甚至反向推动了架构与产业化突破[28] - 开源生态降低门槛并共享标准,“全栈+开源+可参考行业解决方案”模式帮助中小企业迅速将基模能力转化为生产力,并对技术黑箱与不合理溢价形成打击[28] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[28] - 具体案例包括Airbnb核心客服Agent主要依赖千问系列模型,硅谷AI初创Nexusflow旗舰模型Athene-V2基于Qwen-2.5-72B微调[29] - 在开发者社区Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问已扮演“AI时代的安卓”角色[29]
十七年闭关 阿里“通云哥”雏形初现
21世纪经济报道· 2026-01-30 22:18
文章核心观点 - 阿里巴巴通过整合“通义实验室、阿里云、平头哥”,形成了名为“通云哥”的“大模型+云+芯片”全栈AI架构,旨在构建从底层硬件到上层应用的自主可控技术体系 [1][2] - 全栈AI路径是AI竞争进入深水区后的新共识,但该路径投入巨大、挑战重重,其成功关键在于芯片能力与生态构建 [2][3][17] 阿里巴巴“通云哥”全栈AI战略 - “通云哥”战略由马云在2025年春天定名,使命是让每个人和企业都能参与AI时代,其成形基于公司长达17年的战略投入与垂直整合 [1][2][15] - 该战略由三大支柱构成:模型层的通义千问大模型、基础设施层的阿里云、硬件层的平头哥自研芯片,三者协同以实现系统效率提升 [12][15] - 阿里巴巴CEO吴泳铭表示,全栈AI技术能力已成为阿里云的关键竞争优势 [16] - 目前全球范围内,仅有阿里巴巴和谷歌两家公司在大模型、云和芯片三大领域均有布局且具备实力 [17] 平头哥与“真武”AI芯片进展 - 平头哥半导体公司于2018年合并中天微系统与达摩院芯片团队成立,旨在突破国际芯片垄断,已相继推出含光800、玄铁处理器、倚天710等产品 [4] - 公司近期正式推出高端AI芯片“真武810E”PPU,采用自研并行计算架构和片间互联技术,内存为96G HBM2e,片间互联带宽达700 GB/s,可应用于AI训练、推理和自动驾驶 [4][5] - “真武”PPU整体性能据称超过英伟达A800和主流国产GPU,与英伟达H20相当,升级版性能强于英伟达A100 [8] - 该芯片性能稳定、性价比突出,市场供不应求,累计出货量已达数十万片,超过寒武纪,在国产GPU厂商中属第一梯队 [8] - “真武”PPU已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等400多家客户,并大规模用于千问大模型的训练和推理 [8] 全栈AI路径的挑战与行业困境 - 硬件层面存在代际差距,国内芯片企业无法使用最先进制程,存在约两代的差距,且缺乏高效的大规模互联技术,难以组建高性能万卡级集群 [10] - 软件层面面临生态适配困境,尤其是与英伟达CUDA生态的兼容问题,这是几乎所有中国AI芯片公司共同面临的挑战 [10] - AI模型架构快速演进,芯片设计需具备足够弹性与前瞻性,否则专用芯片可能面临“刚量产即过时”的风险 [10] - 有行业观点认为,在中国当前条件下,更理性的路径或许是联合扶持一到两家国内芯片企业,集中力量突破 [17] 全栈AI模式的行业对比与意义 - 全球科技巨头中,谷歌是拥有自研芯片TPU、云平台和Gemini大模型的先行者,软硬一体协同建立了效率与体验壁垒 [2][15] - 亚马逊和微软有云和芯片,但缺乏顶级模型,依赖外部合作,长期面临合作风险,例如OpenAI已开始将部分负载迁移至Google Cloud和Oracle [14] - OpenAI则拥有顶级模型但无云底座与芯片,其技术演进受制于合作伙伴的资源分配和商业节奏 [14] - 对于大多数客户而言,需要的是一套能稳定交付、持续迭代、安全可控的端到端解决方案,整合能力差异正成为决定未来AI产业格局的关键因素 [14] - 在中国市场,算力自主已成为不可逆的战略方向,政策引导、信创采购与本土云巨头的自研需求共同构成了国产AI芯片的基本盘 [11] - “通云哥”全栈路径的战略意义或许已超过商业本身,代表了一条从底层芯片到上层应用完全自主可控的技术路径 [17]
阿里官宣自研AI芯片,“通云哥”成AI时代梦之队
半导体行业观察· 2026-01-30 10:43
文章核心观点 - 阿里巴巴旗下平头哥正式发布高端AI芯片“真武810E”,其性能对标英伟达H20,累计出货量已达数十万片,在国产GPU厂商中位居第一梯队[1] - 阿里巴巴通过平头哥(芯片)、阿里云(云计算)和通义实验室(大模型)三大业务的深度协同,构建了“全栈自研”的独特优势,形成了“通云哥”组合,在全球AI竞争中与谷歌一同成为少数实现此布局的公司[1][5][7][8] 平头哥芯片业务进展与布局 - 平头哥于2018年成立,开创了中国互联网公司自研芯片的先河[3] - “真武810”芯片于2020年秘密启动研发,2022年底至2023年初完成研发验证,采用自研并行计算架构和软件栈,内存为96G HBM2e,片间互联带宽达700 GB/s,可应用于AI训练、推理和自动驾驶[4] - 该芯片已在阿里云实现多个万卡集群部署,大规模用于千问大模型训练推理,并服务了国家电网、中科院、小鹏汽车、新浪微博等超400家客户[4] - 平头哥产品线已从算力芯片延伸至存储及端侧芯片,例如其SSD主控芯片“镇岳510”可对标三星旗舰产品,实现了全栈芯片布局[4] 阿里云与通义实验室的协同优势 - 阿里云运营着中国第一、亚太第一的AI基础设施和云计算网络,在全球29个地域设有92个可用区,服务超500万客户[6] - 根据Omdia 2025年上半年数据,阿里云在中国AI云市场份额占比35.8%,超过第2至4名总和;在已采用生成式AI的财富中国500强企业中,超53%选择阿里云,渗透率第一[6] - 阿里巴巴正积极推进三年3800亿元的AI基础设施建设计划[7] - 通义实验室的千问大模型已实现全面开源,其衍生模型数量突破20万,全球下载量超10亿,据沙利文数据,千问位居中国企业级大模型市场占有率首位,服务超100万家客户[7] “通云哥”组合的协同效应与市场格局 - 平头哥、阿里云与通义实验室的深度协同产生了化学反应:平头哥芯片针对阿里云场景优化,加速了芯片落地进程;通义千问大模型在自研芯片和云服务加持下,训练推理效率得到提升;阿里云则通过自研芯片降本增效,提供差异化服务[7][8] - 全球AI云市场呈现亚马逊、微软、谷歌和阿里巴巴“四强”格局,占据了超80%的云平台市场份额,其中仅谷歌和阿里巴巴实现了云、大模型、芯片全栈自研的布局[8][9] - 阿里云最新季度营收达398.24亿元,同比增长34%,其中AI相关产品收入连续9个季度实现三位数增长[9] - 谷歌云2025年第三季度营收为151.6亿美元,同比增长34%,增速快于亚马逊AWS和微软Azure,其增长也受益于自研模型Gemini和自研TPU芯片的协同优势[10] 全栈自研模式的价值与对比 - 文章将全球AI巨头分为两种模式:“云+生态”模式(如微软绑定OpenAI,亚马逊绑定Anthropic)和“全栈自研”模式(如谷歌、阿里巴巴)[12] - “全栈自研”模式的优势在于迭代更快、成本更优,但挑战是投入巨大、研发周期长[12] - 阿里巴巴的全栈自研布局被认为将在AI时代释放巨大红利[12]
亚马逊大意失AI:昔日位面之子,沦为版本弃子?
钛媒体APP· 2026-01-05 15:14
公司战略重组 - 亚马逊CEO安迪·贾西亲自宣布,将负责大语言模型的AGI团队、自研芯片的Annapurna Labs以及量子计算团队整合,成立直属于其的全新“AGI组织” [1] - 公司AGI部门原负责人将于明年离职 [1] AI竞争格局与亚马逊的困境 - 在AI行业高速发展的背景下,亚马逊2025年股价年度涨幅微弱,投资者未将其视为“AI阵营”的主要参与者 [3] - 头部玩家的成功路径是以自研基础大模型为“大脑”,以云平台为“躯干”提供算力,再通过丰富的应用场景和开发者生态形成闭环,例如OpenAI与微软Azure的深度绑定,以及字节跳动将豆包大模型赋能抖音等产品 [3] - 亚马逊的AI掉队是在“大脑”、“躯干”与“四肢”等多个关键环节都出现了错位 [3] 大模型(“大脑”)表现乏力 - 与OpenAI的GPT-4和谷歌的Gemini系列相比,亚马逊的Nova系列模型在技术和公众视野中声量微弱 [4] - 根据Omdia数据,截至2025年10月,OpenAI与谷歌模型的日均Tokens调用量占比分别为31%和19%,亚马逊Nova模型被归入“其他”类别,市场存在感较低 [4] - 公司内部启动了代号为“奥林匹斯”的秘密武器项目,参数规模远超现有模型,但至今仍未公开 [7] 云业务(“躯干”)面临挑战 - AWS作为公司利润核心和AI战略“躯干”,其市场地位正受到侵蚀 [7] - 在AI时代,算力价值与模型优越性深度绑定,微软通过将Azure与OpenAI服务深度整合,为企业提供“开箱即用”的顶尖AI能力,吸引了大量高价值AI负载 [7] - 根据Synergy Research Group报告,2025年微软Azure在全球云市场份额持续攀升,与AWS的差距持续缩小,增长主要驱动力是AI服务的强劲需求;谷歌云也凭借与Gemini模型的原生集成获得青睐 [7] - AWS推出的Bedrock平台集成了包括Anthropic的Claude、Cohere以及自家Nova在内的多种模型,但其定位更像渠道商,而非拥有核心竞争力的“主机厂” [10] - 当开发者和企业倾向于选择拥有最强“大脑”的生态时,AWS的算力租赁优势被稀释,其作为“首选平台”的地位逐渐动摇 [11] 应用层(“四肢”)创新乏力 - 亚马逊在作为AI能力“四肢”的应用层表现不佳 [11] - 其智能语音助手Alexa虽为智能家居先驱,但十年后绝大多数功能仍停留在“查天气、定闹钟、播放音乐”等初级工具层面,商业化前景不明 [11] - 负责Alexa和硬件的设备与服务部门长年处于巨额亏损状态 [11] 成功路径依赖与创新局限 - 亚马逊的商业帝国围绕“飞轮效应”建立,核心是“客户至上”,通过规模效应和成本控制实现增长 [13] - 自研芯片的初衷是服务于庞大的电商和AWS业务,以控制成本、摆脱对外部供应商的依赖,该策略取得巨大成功,2023年AWS的营业利润高达246亿美元,自研芯片带来的成本优势功不可没 [14] - 然而,面对生成式AI,这种依赖过往成功的经验显现出僵化和局限 [14] - 公司拥有全球最大的电商平台和无可比拟的消费行为数据,是将AI与C端场景结合的绝佳试验场,但却步履蹒跚,不仅错失C端AI破圈良机,还在电商主战场被Temu、Shein等新势力以低价策略拖入缠斗 [14] - 公司的创新模式高度依赖于对现有客户需求的洞察和优化,进行渐进式改良,导致AI团队散落在各业务线解决具体商业问题,浪费了集中攻坚AGI通用底层能力的黄金时期 [15] - 相比之下,阿里巴巴迅速将“通义千问”大模型融入钉钉、淘宝,腾讯将“混元”大模型赋能广告、游戏等核心业务,而亚马逊迟迟未能推出一款引爆市场的AI原生应用 [15] - “内部消化、不对外销售”的芯片模式使其产品失去在广阔市场中竞争和迭代的机会,未能像英伟达的GPU+CUDA那样打造出定义行业标准的软件生态和平台 [15] - “客户至上”的惯性让公司过度执着于解决客户当下的痛点,系统性地忽视了需要长期巨额投入且短期看不到商业回报的“非共识”领域,擅长从1到N的优化,但在从0到1的开创上犹豫不决 [16]
两年前猛裁1.2万人后,谷歌吃起了“回头草”:新招的AI工程师中,20%是「老面孔」
猿大侠· 2025-12-25 12:09
谷歌在AI人才竞争中的“回流”策略 - 2025年,谷歌正以更“工程化”和务实的方式重新夺回AI领域话语权,其策略核心之一是大量召回前员工 [1] - 2025年谷歌新招募的AI软件工程师中,约有20%是前员工,这一比例明显高于往年 [1][4] - 这种“回流”趋势在2024年下半年开始明显加快,谷歌方面确认来自头部竞争对手的AI研究人员数量也明显高于2024年 [4] “回流”策略的背景与动因 - 2023年初,谷歌母公司Alphabet进行了史上最大规模裁员,约裁减1.2万人,占员工总数的6% [4] - 谷歌并未完全切断与离职员工的联系,而是将其视为一个潜在、可再激活的人才池 [4] - 前员工愿意回归的核心原因是“钱和算力”,谷歌拥有自研TPU、超大规模数据中心等将资金转化为算力的强大能力 [5] - 在AI研发中,长期稳定地使用大规模计算资源是决定上限的关键,这促使许多在创业公司试水后的工程师回流大厂 [5][6] 关键人物回归与内部变革 - Transformer论文作者之一Noam Shazeer于2024年8月重新加入DeepMind,这被视为谷歌对过去判断的一次修正,具有强烈象征意义 [7] - 过去一年,谷歌内部文化发生明显变化:开始承担更多风险、加快产品发布节奏,即便产品未完全成熟 [8] - 组织结构上持续“瘦身”:裁撤超过三分之一的小团队管理岗位,减少层级,压缩审批流程 [8] - 联合创始人Sergey Brin重返公司后,亲自参与了部分关键AI人才的招募工作 [8] 行业趋势与“回流”优势 - “召回”前员工的现象并非谷歌独有,根据ADP Research数据,今年科技行业整体“召回”前员工的比例上升,信息产业增幅最为明显 [9] - 频繁裁员、快速扩张、技术周期缩短,使得“离职-回归”成为一种常见的职业路径 [9] - 对企业而言,“召回”前员工优势明显:上手快、文化磨合成本低、在关键系统上有历史经验,尤其适合AI这类节奏紧张、试错成本高的项目 [10] 谷歌在AI领域的战略转向与市场表现 - 在生成式AI领域初期,谷歌反应被认为偏保守,一度被贴上“行动迟缓”的标签,导致DeepMind等团队核心成员被微软、OpenAI、Meta等竞争对手挖走 [11][12] - 从2024年开始,谷歌转变打法:一方面持续加码AI基础设施投入,另一方面使Gemini系列模型形成稳定产品线 [12] - 最新一代模型Gemini 3的发布,标志着谷歌在多模态和通用能力上的进一步推进 [12] - 资本市场反馈直接:Alphabet股价在2025年累计上涨超过60%,在一众科技巨头中表现最为亮眼 [13]
Gartner最新报告:亚太为何只有一家GenAI“领导者”?
21世纪经济报道· 2025-11-26 13:32
市场地位与权威认可 - 国际权威机构Gartner在其第八期《生成式AI技术创新指南》中将阿里云列为“领导者象限”成员,成为亚太地区唯一入选厂商,与谷歌、OpenAI并列 [1] - 不同于传统报告聚焦营收,Gartner将生成式AI拆分为四个维度进行评估,阿里云是亚太唯一在全部四个维度(云基础设施、工程平台、基础模型、知识管理应用)均被评为“领导者”的企业 [3] - 沙利文报告显示,在2025年上半年的中国企业级大模型调用市场中,通义大模型占比位列第一;Omdia报告指出超7成《财富》中国500强企业已采用GenAI,其中阿里云渗透率达53%,排名第一 [3] 全栈AI能力布局 - 在最底层的GenAI云基础设施方面,公司持续加码硬件投入,于今年2月宣布投入3800亿元用于AI基础设施建设,并计划到2032年将云数据中心能耗规模扩大十倍,其HPN8.0网络支持10万卡互联 [6] - 在GenAI工程能力层,一站式AI研发平台PAI与通义大模型联合优化,使模型训练端到端加速比提升3倍以上;一站式模型服务和Agent开发平台“百炼”可一键调用两百多款模型,过去一年其模型日均调用量增长15倍 [6] - 在GenAI模型层,通义大模型家族覆盖全模态、全尺寸,屡次斩获全球最强开源大模型榜单,目前已服务超100万家客户,在《财富》中国500强中渗透率第一达53% [8] - 在最上层的AI知识管理与应用层,公司依然处于Gartner评估的新兴领导者象限,且是中国唯一厂商 [11] 垂直整合的竞争战略 - 全球AI竞争已进入深水区,真正的较量在于全栈整合能力,Gartner报告中的领导者象限仅坐稳谷歌和阿里云两家,其他巨头如亚马逊、微软缺乏顶级模型,OpenAI则缺乏云底座和芯片 [13] - 公司走软硬一体路径,其自研AI芯片已用于内部大模型训练,通义千问与PAI平台、CIPU的联合优化提升了效率,新产品如“无影Agentic Computer”试图实现端云协同的智能体计算 [14] - 公司将通义千问全面开源,累计开源模型超300个,衍生模型数量超18万,已成为全球性能强、应用广泛的开源大模型,新加坡国家人工智能计划(AISG)的最新项目已放弃Meta模型转向通义千问架构 [14] - 垂直整合模式虽前期投入巨大,但一旦跑通能在性能调优、成本控制和迭代速度上建立系统性优势,公司在亚太地区是唯一能同时在芯片、云平台、大模型和应用生态上形成闭环的云厂商 [14][16]
MaaS定义AI下半场:一场对大模型生产力的投票
华尔街见闻· 2025-11-21 19:19
AI行业进入价值落地的“下半场” - 2025年人工智能赛道迎来关键资本热潮,智谱与MiniMax相继申请公开上市,争夺“大模型第一股”[1] - 行业面临价值鸿沟,企业巨额投入与大量组织停滞在试点阶段无法产生实际损益影响形成矛盾[1] - Deepseek等模型以极低成本实现SOTA性能,迫使企业决策层陷入“害怕错过”与“担心烧钱无果”的两难境地[1] - 市场转向模型价值落地的下半场,从“卖模型参数”转向“交付MaaS(模型即服务)”[2] 全球MaaS平台竞争格局重塑 - 企业级LLM API市场出现戏剧性王座易主,Anthropic以32%生产环境使用份额跃居第一,OpenAI从2023年底50%份额下滑至25%,谷歌Gemini系列以20%份额位列第三[4] - Anthropic凭借“企业优先”战略专注于B2B客户看重的可靠性、安全性和特定任务性能,其年化经常性收入从2025年初10亿美元飙升至8月份50亿美元[9] - OpenAI在消费者市场建立品牌护城河,但Anthropic在垂直B2B工作流API预算战中获胜,市场从单一走向分化[9] 中国市场多元化竞争策略 - 阿里云等传统云巨头采用“建厨房”全栈解决方案打法,涵盖IaaS、PaaS到MaaS,通过价格战和开源换生态锁定高利润底层算力[10][11] - 单纯Token降价已非灵丹妙药,企业开始真正关注模型效果和效率[13] - 智谱等创业公司聚焦ToB战场,开创API调用、自定义微调、云端私有化部署三种MaaS商业化方式,GLM-4.5发布后平台tokens调用量海内外均实现10倍速增长[1][14] 垂直场景商业化突破 - 智谱针对编程场景推出GLM Coding套餐,两个月内吸引15万开发者订阅,有望实现年化经常性收入过亿人民币[14] - 在代码编写、金融研报分析等容错率极低场景中,模型能力微小提升带来生产力从不可用到可用的质变[18] - 中国大模型日均Token消耗量呈指数级增长,从2024年初1000亿增长至2025年6月突破30万亿,证明MaaS模式爆发和模型真实可用[18] MaaS模式的技术与经济逻辑 - 基础模型能力边界经历指数级扩张,每两三个月就会出现新性能颠覆者,使得投资静态本地部署模型在经济上变得“不理性”[17] - 对于追求SOTA性能的客户,MaaS是确保处在技术前沿最具经济效益的选择,智谱客户花费数月精调的GLM-3模型性能很快被基础版GLM-4超越[17] - 对于金融、法律、医疗等高度监管行业,私有化部署成为刚性需求,但交付模式从项目制转向“模型驱动的高溢价服务”[19][20] 模型即应用的终局猜想 - 基座模型本身正在成为唯一超级应用,所有不掌握模型权重的“薄封装”应用护城河将随基座模型迭代被填平[22][24] - 智谱Auto GLM展示模型从“副驾驶”进化到“驾驶员”,能自主操作界面执行复杂任务,价值链从应用层回流到基座层[24] - 大模型商业本质从软件升级为新生产要素,是从千亿级软件市场向万亿级劳动力市场的质变[26] 资本市场估值重估机遇 - 全球资本以疯狂溢价抢购AGI“终极门票”,OpenAI估值从3000亿美元飙升至5000亿美元,xAI计划融资150亿美元对应估值达2300亿美元[26] - 当前资本市场对中国独立基座厂商存在巨大认知错配,硅谷同行按AGI定价而中国厂商仍被传统定价[26][27] - 智谱GLM-4.6模型在编程任务上与Claude系列和GPT-5并列首位,并迅速转化为过亿ARR的杀手级应用[27] - 随着模型即应用终局确立,掌握核心模型权重的中国独立厂商将迎来价值重估[27][28]
AI彻底重塑全球云计算:Gemini企业版发布,谷歌云年化超500亿美元
36氪· 2025-10-11 08:46
产品发布核心 - 谷歌云于10月10日发布企业级AI解决方案Gemini Enterprise(Gemini企业版),旨在成为“工作场所AI的新入口”[1] - 该产品定位为一个全面、安全且集成的平台,超越简单的聊天机器人,致力于将AI智能、企业数据、业务流程和员工无缝连接起来[1][12] - 谷歌CEO表示,谷歌云年化收益已突破500亿美元,大部分增长由AI驱动,超过65%的云客户正在使用其AI产品[1][8] 平台架构与核心组件 - Gemini企业版被定义为一个统一了六大核心组件的端到端平台,而非孤立应用[2][15] - 平台核心是谷歌最先进的Gemini系列模型,其中Gemini 2.5 Pro在行业基准测试中已领先超过六个月[2][11] - 工作台(Workbench)支持“无代码”方式构建和编排AI Agent,使业务人员可像开发者一样创建智能体[2][16] - 平台包含一套预构建的专业Agent,如深度研究、数据洞察和编码助手,开箱即用[2][16] - 平台能安全连接到企业几乎所有的数据源,并学习员工的个人工作习惯,提供个性化回答[2][17] - 平台提供集中的可视化管理、审计和安全控制,并已满足许多国家的主权要求和行业合规标准[2][17] - 平台包含一个汇集了海量合作伙伴构建的Agent的市场[2][18] 产品价值与客户案例 - 现场演示案例显示,营销经理通过其创建的Agent,在几分钟内完成了传统模式需数周、跨部门的万圣节营销活动策划[3][20] - 该营销Agent协调了市场研究、库存管理、内部沟通和媒体生成四个专业代理,实现了工作流的端到端自动化[3][21] - HCA Healthcare预计其由Gemini驱动的解决方案每年可为护士节省数百万小时[13][32] - Best Buy已改造其客户服务,使自主改期交付的客户数量增长了200%,并在特定话题上多解决30%的问题[13][32] - 在谷歌内部,近一半的新代码由AI生成[13] - Klarna借助Gemini等工具打造个性化搭配手册,使订单量增长超过50%[43] 技术战略与竞争优势 - 谷歌的底气来自于由四个紧密集成的层次构成的“全栈AI”战略[4] - 基础设施层包括比上一代性能提升10倍的最新TPU,是全球数十亿用户服务的算力基石[4][9] - 研究层由谷歌搜索和DeepMind世界一流的研究团队构成,持续在前沿领域驱动创新[4][10] - 模型层以Gemini为首的行业领先基础模型矩阵,目前已有超过1300万开发者在使用谷歌的生成模型进行构建[4][11] - 产品与平台层将AI能力大规模落地,如Search中的AI概览月处理标记已超过万亿[4][11] - 谷歌强调其提供的是完整的、为AI优化的平台,而非让企业自行组装的模型和工具包[4][18] 生态系统与行业合作 - “开放”与“生态”是发布会的核心关键词,谷歌正与Box、ServiceNow、Workday等合作伙伴深化产品整合[5][49] - 谷歌正在推动建立“智能体经济”,并制定了A2A开放标准用于规范智能体之间的通信[5][41] - 谷歌与Visa、PayPal等上百家机构共同开发了“代理支付协议 (AP2)”,为智能体的安全交易和支付奠定基础[5][41][42] - 谷歌公布人才培养计划,通过Google Skills平台提供免费培训,并启动“GEAR”计划,目标在一年内赋能100万名新开发者[5][50] - 对于复杂需求,谷歌专门组建了由顶级AI工程师构成的“Delta”精英团队提供深度技术支持[5][50] - 谷歌宣布成为LA28奥运会与残奥会的官方云合作伙伴,将利用其平台和技术提升赛事体验[46][47]
全球AI云竞赛,阿里靠什么打?
虎嗅APP· 2025-09-21 10:50
文章核心观点 - 全球AI竞赛范式已从模型竞赛转向全栈技术体系竞争,胜负关键取决于迭代速度和成本效率[4][5][7] - 阿里巴巴是全球四朵“超级AI云”中唯一的中国公司,并与谷歌同属“全栈自研”战略路径,具备长期竞争优势[2][3][10] - “全栈自研”模式通过对AI芯片、云计算平台和基础大模型的端到端控制,实现更快的创新迭代和更优的成本结构[8][17] - 阿里云在AI基础设施上投入激进,过去四个季度累计投入超过1000亿元,支撑其全球竞争力[11] 全球AI竞赛范式转变 - AI竞赛终局形态是构建集模型、云平台、芯片、生态于一体的强大AI全栈技术体系,而非决出最聪明的单一模型[5] - 大模型性能出现“平台化”现象,顶尖AI能力正从少数公司的专利转变为人人可用的普惠基础设施[4][5] - 决定竞争胜负的两个核心变量是迭代速度和成本效率,优化它们需要垂直整合的AI全栈技术体系[7] “超级AI云”的四大要素与格局 - 构建“超级AI云”体系需要四大要素:千亿级资本投入、百万级集群云计算能力、世界级基础大模型、自主AI芯片布局[7] - 全球科技版图中,仅美国谷歌、微软、亚马逊和中国阿里巴巴四家公司集齐了四大要素,形成第一梯队[10][11] - 阿里云在全球IaaS市场位列前四,是合计份额近80%的第一梯队中唯一的中国公司[10] - 阿里巴巴宣布未来三年投入3800亿元用于云和AI基础设施建设,金额超过去十年总和[11] 战略路径分化:“全栈自研”vs“云+生态” - 四家“超级AI云”公司分化为两种战略模式:“全栈自研”(谷歌、阿里巴巴)和“云+生态”(微软、亚马逊)[13][15] - “云+生态”模式通过投资/绑定AI明星公司快速集成先进能力,但面临协同效率和战略稳定性的挑战[15][16] - “全栈自研”模式通过对技术栈的端到端控制,实现更快的创新迭代和更优的成本结构,但投入巨大且研发周期长[8][15][17] - 采用“全栈自研”的谷歌云和阿里云收入增速显著提升,分别加速至32%和26%,显示该模式正转化为业绩增长[17] 阿里巴巴的竞争态势与成果 - 阿里巴巴采取“模型开源吸引生态,硬件自研控制成本”策略,通义千问Qwen衍生模型数量已突破17万,成为全球第一AI开源模型[10][17] - 公司近期密集发布并开源Qwen3推理模型、Qwen3-Coder编程模型等多个重量级模型,技术成果显著[17] - 在AI芯片层面进行自主布局,旨在实现硬件与模型的深度协同,以构筑长期成本优势[3][10]
“后搜索时代”来临,谷歌能否重塑辉煌?
贝塔投资智库· 2025-08-27 12:00
核心观点 - 公司在生成式AI浪潮中通过AI Overviews、Gemini模型和云服务实现强劲增长 而非被淘汰 体现其持续竞争力 [1] - 2025年Q2财报显示总营收964亿美元(同比+14%) 净利润282亿美元(同比+19%) 超出市场预期 [16] - 当前市值2.53万亿美元 动态市盈率22.08 PEG比率1.62低于同业 显示估值优势 [21] 公司业务结构 - Google Services占总营收70%以上 包括搜索广告(全球份额63%)、YouTube(广告收入同比+13%)、Android(30亿活跃设备)和Chrome(市占率超60%) [5][6] - Google Cloud年化营收超500亿美元 Q2收入136亿美元(同比+32%) 运营利润率达20.7% 积压订单1082亿美元 [7][18][19] - Other Bets季度营收3.7亿美元 包括Waymo(预计2027年营收13亿美元)和Verily等探索性业务 [8][9] 竞争优势 - 形成搜索/Android/YouTube/Gmail的生态闭环 产生数据飞轮效应和用户迁移成本壁垒 [9] - Gemini 2.5 Pro在多模态能力上超越竞争对手 配套Gemma开源模型降低开发门槛 [10][11] - 自研TPUv7芯片推理能效较英伟达A100提升1.9倍 超算集群算力达42.5 ExaFlops [11] - 在量子计算(Sycamore处理器)和端侧AI(Gemini Nano)领域保持技术领先 [13] 财务表现 - Q2毛利率59.5%(同比+1.4%) 净利率29.2%(同比+1.4%) [16] - 搜索广告收入542亿美元(同比+12%) YouTube广告98亿美元(同比+13%) [17] - 订阅与硬件业务收入112亿美元(同比+20%) [19] - 亚太地区收入165亿美元(同比+19%)为增长最快市场 [20] 资本配置 - Q2资本支出224.5亿美元(同比+70.2%) 全年预算上调13%至850亿美元 [14] - 约三分之二资金投向AI服务器 其余用于数据中心与网络设备 [14] 市场定位 - 股价从4月143美元低点回升至8月207美元 反映市场信心修复 [2] - 华尔街机构目标价区间202-234美元 较当前股价存在最高12.96%上行空间 [22]