Software and Internet
搜索文档
Alphabet Bets $185B on Gemini, Agentic Commerce and Enterprise AI
PYMNTS.com· 2026-02-05 08:47
Alphabet 2026年资本支出计划与AI需求 - Alphabet计划在2026年投入1750亿至1850亿美元的资本支出 以应对AI需求 该投资被管理层视为对持续AI需求的直接回应 而非单纯的雄心 [1][2][3] - 公司正面临产能压力 预计供应紧张将持续至2026年的大部分时间 原因是训练、推理和企业工作负载持续增长 [4] - 资本支出中约60%用于服务器 40%用于数据中心和网络 同时公司持续进行效率优化 [18] Gemini业务进展与市场采用 - Gemini正从功能层转向运营层 其直接API每分钟处理的token数量超过100亿个 较上一季度的70亿个有所增长 [1][5] - Gemini应用月活跃用户超过7.5亿 Gemini Enterprise在约四个月内已售出超过800万个付费席位 [5] - 超过12万家组织正在使用Gemini 前20大SaaS公司中的95%以及前100大中的超过80%已将Gemini集成到其产品或工作流中 [6] 企业级AI采用与SaaS整合 - 管理层将Gemini定位为赋能层而非破坏性力量 成功的SaaS公司正将Gemini深度集成到关键工作流中 以改善产品体验、驱动增长或提升组织效率 [7][8] - Google Cloud积压订单额达到2400亿美元 环比增长55% 云业务收入增长48%至177亿美元 主要受企业AI基础设施和解决方案推动 [5][13] 广告与核心业务表现 - 第四季度综合收入达到1138亿美元 同比增长18% Google Services收入为960亿美元 [5][13] - 搜索收入同比增长17% 由零售、金融和健康领域推动 AI概览和AI模式延长了会话时长和复杂性 AI模式查询平均时长是传统搜索的三倍 [12] - 广告商在第四季度使用Gemini创建了近7000万个创意素材 Gemini的改进显著提高了广告相关性并减少了无关展示 [11][13] YouTube增长与商业化 - YouTube年度总收入(广告和订阅)超过600亿美元 第四季度增长由直接响应广告驱动 订阅收入在YouTube Music和Premium推动下增长 [14] - 公司在Shorts、联网电视格式和可购物广告体验方面势头强劲 包括允许观众浏览产品并将购买链接发送至手机的互动横幅广告 [15] 智能体商务与未来方向 - 公司正推动智能体商务发展 使AI系统从推荐引擎转变为交易促进者 2025年的重点是基础工作 包括与合作伙伴开发通用商务协议 [8][9] - 下一阶段是将这些能力直接集成到Gemini、AI模式和搜索中 消费者将能够在对话体验中完成从发现到购买的过程 [9][10] 合作伙伴关系与运营挑战 - Alphabet确认与Apple深化合作 成为其首选云提供商 并共同开发基于Gemini技术的下一代基础模型 该合作扩展了公司的AI生态足迹 [16] - 电力供应、数据中心建设时间表和组件交付周期将决定公司将需求转化为实际部署产能的速度 计算能力是当前主要的运营挑战 [17][19]
换徽章、吃意面、“中国红”点亮奥运氛围
新浪财经· 2026-02-05 01:28
阿里云科技产品应用 - 阿里云在米兰冬奥村设置了由千问大模型驱动的智能徽章交换站 提供了一种新颖的徽章交换体验 [1] - 该智能徽章交换站运行5天已有超过1300人次前来体验 显示出较高的人气与接受度 [1] - 外国运动员评价该科技产品让传统奥运活动增添了新意和趣味性 并未取代传统面对面交换方式 [1] 冬奥村运营与设施 - 米兰冬奥村已于1月30日开村 村内奥运氛围浓厚 中国代表团驻地装饰有显著的中国特色元素 [1] - 村内健身中心人气最高 运动员训练活动频繁 [2] - 冬奥村提供意大利菜 有运动员将其与北京冬奥会提供的多国菜品进行比较 [2] 运动员动态与互动 - 中国队短道速滑名将林孝埈在村内活动神情轻松 与其他队伍运动员互动良好 [2] - 中国冬奥冠军隋文静、韩聪在官方纪念品商店与法国花样滑冰队领队等老朋友进行了友好交流 [2] - 法国冰球运动员安娜·西蒙等外国运动员积极参与并正面评价了智能徽章交换等科技互动项目 [1]
微信封元宝 生态协调遭遇营销大战
北京商报· 2026-02-04 22:02
事件概述 - 微信于2月4日发布公告,因元宝App的春节红包活动存在“诱导分享、骚扰用户”等行为,违反平台规则,对其相关链接采取限制措施,限制其在微信内直接打开 [2][5] - 元宝的“春节分10亿元现金”活动于2月1日启动,核心玩法依赖社交裂变,用户通过邀请他人领取红包获得抽奖机会 [2][5] - 微信处置后,元宝将分享方式改为复制口令至微信,流程拉长 [2][8] 微信的立场与行动 - 微信判定元宝活动通过利益诱惑诱导用户高频分享外链,干扰平台生态秩序和用户体验,依据《微信外部链接内容管理规范》进行处理 [5] - 微信公关总监在个人微博发文强调“用户体验第一,一视同仁”,并配图“我发起疯来自己都打” [7] - 微信此前也曾对包括QQ音乐、QQ浏览器在内的多个腾讯系及第三方产品的违规外部链接进行限制处理,显示其执行规则的一致性 [7] 元宝的应对与现状 - 元宝官方在微信公告评论区回应,表示理解并尊重平台规则,已第一时间优化活动设计确保合规 [8] - 活动分享方式从直接跳转链接改为复制口令,用户需手动复制粘贴至微信才能参与,流程变得繁琐 [2][8] - 尽管遭遇限制,根据七麦数据,2月4日元宝在苹果免费总榜、免费应用榜和免费效率榜均排名第一 [8] - 在春节活动前,微信与元宝已有多次联动测试,例如在微信搜索灰度测试AI搜索时引导下载元宝,以及在公众号和视频号评论区支持@元宝提问 [6] 腾讯内部的战略与组织动态 - 腾讯公司董事会主席兼首席执行官马化腾曾期待通过元宝的春节活动“重现11年前的微信红包时刻” [2][10] - 分析认为此事件暴露了腾讯AI战略的组织挑战,各业务线(如微信与元宝)具有一定独立性,在需要协同投入AI时可能出现“左右互搏” [10] - 腾讯已于2025年12月进行组织架构调整,新成立AI Infra部、AI Data部等部门,并任命首席AI科学家,旨在加强AI领域的协同 [10] - 马化腾表示未来将把大模型和AI产品一体化考虑,采用交叉、派驻和共同设计的逻辑进行产品与组织设计 [11] 行业与产品分析 - 分析指出,与微信这类刚需应用相比,元宝作为AI应用仍属增值服务,尚未与用户形成强绑定关系,且AI对大部分用户并非刚需 [9] - 元宝在算法和功能上尚未形成独家优势,产品成熟度有待提升 [8][9] - 此次微信仅给予元宝三天(2月1日至4日)的推广窗口期,即进行限制 [10] - 行业观点认为,AI大战已进入关键阶段,用户习惯与生态格局或将在春节档固化,时间窗口紧迫 [12]
腾讯混元AI Infra核心技术开源,推理吞吐提升30%
搜狐财经· 2026-02-04 20:22
公司技术发布 - 腾讯混元AI Infra团队宣布推出开源生产级高性能LLM推理核心算子库HPC-Ops [1] - 该算子库基于CUDA和CuTe从零构建,旨在通过抽象化工程架构、微架构深度适配及指令级极致优化,降低底层算子开发门槛,并将核心算子性能逼近硬件峰值 [1] 性能表现 - 在真实场景下,基于HPC-Ops,混元模型推理QPM提升30%,DeepSeek模型QPM提升17% [3] - 单算子性能方面,HPC-Ops的Attention相比FlashInfer/FlashAttention最高提升2.22倍 [3] - GroupGEMM相比DeepGEMM最高提升1.88倍 [3] - FusedMoE相比TensorRT-LLM最高提升1.49倍 [3] 未来发展规划 - 将重点研发稀疏Attention算子,针对性解决长上下文大模型的内存与算力瓶颈 [3] - 会拓展更丰富的量化策略,覆盖4bit/8bit混合精度等更多量化方案,以进一步平衡推理速度与模型精度 [3] - 算子库还将布局计算-通信协同优化的内核,通过融合多GPU间的计算逻辑与通信流程,大幅降低分布式推理场景下的通信开销,为超大规模大模型的高效部署提供底层支撑 [3]
昆仑万维深度报告:A股稀缺大模型及出海应用龙头,从纯投入期到兑现期
浙商证券· 2026-02-04 18:24
投资评级 - 首次覆盖给予“买入”评级,目标价74.3元,目标市值932亿元 [7][9] 核心观点 - 公司已完成“算力—模型—AI应用”AI全产业链布局,正从纯投入期转向兑现期 [1] - 短剧业务商业化强度超预期,已成为核心现金流引擎,AI智能体业务有望开启第二增长曲线 [1][2] - 市场估值应使用分部加总法,公司正经历从“流量”到“智能”的质变,利润结构将发生非线性跃迁 [5][6] 短剧出海业务 - **行业空间巨大且高速增长**:海外短剧行业仍处放量扩张期,2025年总体规模达40亿美元,其中内购收入22.79亿美元,同比增长129%,下载量18.55亿次,同比激增超300%,预计2026年规模将突破50亿美元 [19] - **竞争格局头部集中**:市场呈现双巨头领跑格局,2025年上半年ReelShort与DramaBox合计占据近半数收入(45.68%),市场集中度预计将持续提升 [26] - **DramaWave平台表现突出**: - 收入端:2025年全年,DramaWave以1.86亿美元预估收入位列行业第四,市场份额7.83% [31]。2025年12月收入环比增长35.40%,排名上升至第四位 [2][34] - 下载端:2025年全年下载量达7389万次,排名第四 [27]。2025年12月下载量环比上涨超90%,成为Top 15中涨幅最高的产品 [2][29] - 商业化验证:预计2025年短剧收入同比增长900%至16.8亿元,成为核心现金流引擎 [2][18] - **产品与运营策略**: - 采用“付费+免费”混合变现模式,通过会员订阅和激励广告覆盖全层级用户 [33][36] - 深度绑定TikTok生态进行社交裂变,其官方账号粉丝量达170万,位居行业第二 [38] - 采用分层投放策略,欧美市场聚焦获客,新兴市场如印尼贡献主要收入(13%收入占比) [38] - 利用AI技术赋能内容本土化与广告素材生成,提升投放效率 [39] AI应用生态布局 - **全链路产品矩阵**:以“天工超级智能体”为核心,联动AI Developer、AI视频、AI音乐、AI游戏与AI社交产品,覆盖C端与B端需求 [2][43] - **技术领先性验证**:天工超级智能体在GAIA评测中以82.42分位列全球榜首 [43] - **AI音乐业务(Mureka)突破**: - 技术层面:2026年1月发布的Mureka V8大模型盲测评分已超越Suno V5,达到可直接发布的工业化水准 [48] - 成本优势:使用自研AI音乐大模型后,单首游戏配乐制作成本从约10万元人民币降至不足1分钱 [49] - 商业化进展:2025年11月首次实现毛利为正,年化流水约1200万美元,已服务超8000家企业客户 [52] - **生态入口协同**:通过Opera浏览器构建AI生态入口,截至2025年上半年,Opera全球月活用户达2.89亿,年化ARPU升至1.97美元(同比+35%),其AI功能集成是用户价值提升的重要驱动力 [57] - **商业化雏形已现**:2025年上半年,公司AI软件技术收入已达6500万元 [2][43] 世界模型技术卡位 - **技术领先性**:公司于2025年8月开源Matrix-3D模型,其升级版Matrix-Game 2.0是业内首个在通用场景下实现实时长序列交互生成的开源方案 [2][62] - **战略意义**:世界模型被视为机器人及自动驾驶的“认知底座”,是通往AGI的重要技术里程碑,潜在市场规模远超内容创作工具本身 [61] - **对现有业务的增益**:该技术可大幅降低3D游戏和短剧/影视的制作成本,与DramaWave平台形成“AI编剧→AI生成→AI投放”的闭环生态 [61] 其他业务与投资 - **控股AI芯片公司**:公司于2023年控股(持股58%)AI芯片公司艾捷科芯,为未来发展提供弹性 [3] - **游戏业务**:预计利润为3.5亿元,作为现金流业务提供支撑 [65] - **投资业务**:截至2025年三季度,公司投资性资产合计115.4亿元 [65] 财务预测与估值 - **营收预测**:预计2025-2027年营收分别为82亿元、117亿元、148亿元,同比增长44.18%、43.21%、26.34% [7][66] - **利润预测**:预计2025-2027年归母净利润分别为-16.1亿元、-0.94亿元、4.38亿元,将于2027年实现扭亏为盈 [7][66] - **分部加总估值**: - 短剧平台:按8倍PS估值,对应市值336亿元 [63] - Opera:按20倍PE估值,对应市值90亿元 [63] - AI应用:按50倍PS估值,对应市值336亿元 [64] - 游戏业务:按20倍PE估值,对应市值70亿元 [65] - 投资业务:按账面净值折价10%,对应市值100亿元 [65] - 合计目标市值932亿元 [7][67]
姚顺雨腾讯首篇论文:给AI下半场指路“上下文学习”
搜狐财经· 2026-02-04 18:20
文章核心观点 - 当前最先进的大型语言模型在真实世界的复杂任务中表现不佳,其核心缺陷在于严重依赖预训练获得的静态“参数化知识”,而缺乏从给定上下文中实时学习并应用新知识的能力,这阻碍了AI从“做题家”向实用工具的转变 [4][6][27] - 腾讯混元与复旦大学团队推出的CL-bench基准测试量化了这一差距,测试显示即便最强的GPT-5.1 (High)模型,在必须从上下文中学习新知识才能解决的任务上,总体解决率也仅为23.7% [4][19][23] - 该研究呼应了“AI下半场”的判断,即行业重点应从盲目扩大模型规模转向提升模型在真实任务和系统中的评估与实用能力 [2][27] AI模型能力评估与瓶颈 - **整体表现堪忧**:在CL-bench的500个复杂上下文、1899个任务上,评估的十个前沿语言模型平均仅解决了17.2%的任务,表现最好的GPT-5.1 (High)解决率为23.7%,最差的DeepSeek V3.2 Thinking解决率为13.2% [19][23] - **跨场景能力不均**:模型在四类上下文学习场景中表现存在差异,在“经验发现与模拟”这类需要归纳推理的任务上表现最差,GPT-5.1 (High)在此类任务上的解决率仅为18.1%,而多数模型在此类任务上的解决率通常低于10% [8][23][25] - **错误根源分析**:模型失败的主要原因是忽略或误用上下文,而非信息缺失。例如,GPT-5.1 (High)有55.3%的错误源于忽略上下文,65.4%的错误源于误用上下文。模型倾向于依赖预训练的静态知识,而非学习上下文中的新规则 [23][24] - **推理强度作用有限**:增加模型的推理强度对提升上下文学习能力效果有限。例如,GPT-5.1在部分任务上提升约6%,但其他模型提升有限甚至可能下降,表明仅靠更多推理步骤并不足够 [29] CL-bench基准测试设计 - **测试目标明确**:基准旨在量化模型从上下文中学习预训练中不存在的新知识并加以应用的能力,其设计原则是解决任务必须依赖上下文学习 [6] - **内容构建严谨**:基准包含500个由领域专家精心制作的复杂上下文、1899个任务和31607个验证标准。为确保无数据泄露,内容采用完全虚构、修改现实或整合极小众资料的方式构建,每个上下文平均耗时约20小时标注 [6][19] - **覆盖场景广泛**:测试涵盖四种现实世界场景:1) 领域知识推理(如新法律、金融工具);2) 规则系统应用(如新游戏机制、编程语法);3) 程序性任务执行(如工作流手册);4) 经验发现与模拟(从数据中归纳规律) [8] - **有效性验证**:在不提供上下文的情况下,GPT-5.1 (High)仅能解决不到1%的任务,有力证明了任务设计有效,模型几乎无法凭记忆解决 [19] 行业发展趋势与公司动向 - **研究方向转变**:行业研究重点正从“训练大于评估”的上半场,转向“评估大于训练”的下半场,更关注模型在真实任务中的检验而非单纯堆叠规模 [2][27] - **腾讯的布局**:提出“AI下半场”判断的姚顺雨已正式加盟腾讯,担任总办首席AI科学家,并向总裁刘炽平汇报,同时兼任AI Infra部、大语言模型部负责人,此项CL-bench研究由其提供建议并由腾讯混元与复旦大学团队合作完成 [27] - **未来目标明确**:研究团队指出,当前明确的目标是让上下文学习能力真正走向现实,这将是推动AI实用化的关键一步 [27]
Match Group: Tinder Is Bleeding Users, And Hinge Has Stopped Growing (NASDAQ:MTCH)
Seeking Alpha· 2026-02-04 12:18
行业趋势变化 - 科技行业正在发生重大转变 投资者正在抛售软件和互联网股票 转而追捧半导体和芯片股票 [1] - 这一转变的驱动力是数据中心热潮所带来的需求 [1] 分析师背景 - 分析师加里·亚历山大在华尔街和硅谷拥有覆盖科技公司的综合经验 并担任多家种子轮初创公司的外部顾问 [1] - 该分析师自2017年以来一直是Seeking Alpha的定期撰稿人 其观点被多家网络媒体引用 文章也被同步至Robinhood等流行交易应用的公司页面 [1]
微信“封杀”,元宝回应
新浪财经· 2026-02-04 12:02
事件概述 - 微信平台于2月4日发布公告,宣布对腾讯元宝的违规链接进行处置,限制其在微信内直接打开 [1] - 处置原因为元宝的春节营销活动存在诱导用户高频分享链接至微信群等违规行为,干扰平台生态秩序、影响用户体验 [1][3] - 元宝官方微博随后回应,称正在紧急优化调整分享机制,将尽快上线以确保用户体验 [2] 违规行为定性 - 微信依据《微信外部链接内容管理规范》进行研判,认定元宝活动属于“诱导分享违规” [4] - 具体违规形式包括:通过“做任务”、“领红包”等方式,以金钱奖励(红包)诱导用户分享及传播外链 [3][4] - 其他违规形式示例还包括:通过签到打卡、邀请好友协助(助力、砍价)、设置收集任务(集赞、集卡)等形式诱导分享 [4] 涉事产品背景 - 腾讯元宝是腾讯公司基于自研混元大模型开发的C端AI助手App,于2024年5月上线 [7] - 该产品于2025年11月接入了微信支付 [7] - 本次涉事的“春节10亿红包”活动于今年2月1日上线,用户可通过活动页面抽取或通过好友分享的链接、口令领取红包 [7] 平台监管行动 - 此次处置是微信近期发布的《针对第三方违规行为的打击公告》的一部分,旨在打击以春节为主题集中爆发的过度营销、诱导分享等违规行为 [3] - 微信表示将持续关注各项春节营销活动运行情况,结合用户反馈并依据平台规则进行管理 [5] - 处置措施自公告发布之日(2月4日)起生效 [5] 相关方回应与澄清 - 在微信公告发布前一日(2月3日),腾讯元宝曾发布“辟谣”帖,澄清“抢元宝红包会导致微信闪退,余额清零”的说法不实 [7] - 元宝方面澄清其App与微信是两个独立应用,不存在直接导致微信闪退的技术关联,并强调用户在元宝内获得的现金红包奖励受严格金融安全保障 [7]
腾讯姚顺雨团队发布署名论文,让模型“上下文学习”真正走向现实
扬子晚报网· 2026-02-03 23:09
行业技术挑战与现状 - 当前最先进的大语言模型在利用上下文进行实时学习方面存在显著能力短板 即使抹平信息差也未必能解决问题[2] - 研究构建的CL-bench基准测试显示 全球排名前十的语言模型平均任务解决率仅为17.2% 表明模型尚不善于从上下文中学习新知识并应用[3] - 大语言模型虽在解决结构化难题方面表现优异 但在应对需要从文档、规则或日志等上下文中实时学习的真实世界任务时 表现仍有待提升[2] 腾讯混元的研究与方向 - 腾讯混元团队联合复旦大学发布研究 指出让大模型学会“从上下文中学习”远比想象中困难 并首次公开其技术博客[1][2] - 该研究是首席AI科学家姚顺雨加入腾讯后团队首次发布成果 其研发思路侧重于打造实用模型和评估能力[1][4] - 团队推出的CL-bench基准包含500个复杂上下文、1,899个任务和31,607个验证标准 专门用于评估模型从上下文中学习新知识的能力[3] 未来技术演进与行业影响 - 研究指出 强化模型的上下文学习能力是大语言模型后续迭代的一个重要方向[3] - 若上下文学习能力得到提升 人类在AI系统中的角色可能从主要数据提供者转变为上下文提供者[3] - 行业竞争焦点可能从“谁能把模型训练得更好”转向“谁能为任务提供最丰富、最相关的上下文”[3] - 模型如何记忆可能成为2026年大模型发展的核心主题之一 可靠的上下文学习与记忆可能使模型实现自主学习[4]
刚刚,腾讯姚顺雨团队首个成果发布,揭示大模型真正瓶颈
36氪· 2026-02-03 22:26
腾讯混元发布CL-bench基准 - 腾讯混元团队正式上线了由首席AI科学家姚顺雨团队主导开发的基准CL-bench,专门用于评测大语言模型从上下文学习新知识并正确应用的能力,这是该团队加入腾讯后的首个研究成果[1] 基准核心目标与设计理念 - CL-bench的核心目标是要求模型在解决每个任务时,都必须从上下文中学习模型预训练中不存在的新知识并正确应用,旨在弥合模型依赖静态记忆与人类实时学习能力之间的差距[6][7] - 基准包含由专家制作的500个复杂上下文、1899个任务和31607个验证标准,所有知识均为新构建或取自不可能出现在当前模型训练数据中的小众长尾来源[9] - 每个上下文都是完全自包含的,解决任务所需的所有信息都显式地提供在上下文本身之中,无需外部检索[26] - 为确保无数据污染,基准采用虚构创作、修改现有内容及整合小众新兴内容的设计,在不提供上下文的情况下,表现最好的GPT-5.1(High)仅能解决不到1%的任务[28] - 基准设计具有高复杂性,其中51.1%的任务需要序列依赖,增加了任务难度,每个上下文平均关联63.2个验证标准以确保质量[28][29] 模型评测结果与关键发现 - 在评测的十个主流大语言模型中,平均任务解决率仅为17.2%,表现最好的GPT-5.1(High)解决了23.7%的任务,表明当前最先进的模型几乎都不会从上下文中学习[5][15] - 模型失败的主要原因是忽略或误用上下文,而非信息缺失,例如GPT-5.1(High)有55.3%的错误是忽略上下文,61.5%是误用上下文[17][18] - 长上下文推理和指令遵循能力是必要的,但不是充分条件,上下文学习需要的能力远不止于此[19] - 模型在需要归纳推理的“经验发现与模拟”类任务上表现明显更差,任务解决率通常低于10%,表明从数据中发现规律远比应用既定规则更具挑战性[20] - 更高的推理强度通常能提升上下文学习效果,例如GPT-5.1在部分任务上的表现可提升约6%,但并非对所有模型都有效[23] - 上下文学习的难度与长度相关,但短上下文若信息密集、规则隐含,同样极具挑战性,难度不仅源于长度也源于复杂度[25] 基准任务分类体系 - CL-bench涵盖四种广泛的现实世界上下文学习场景:领域知识推理、规则系统应用、程序性任务执行、经验发现与模拟[11] - 这些类别包含了大部分现实世界工作中常见的演绎推理和归纳推理任务,能全面衡量模型的上下文学习能力[14] 行业影响与未来展望 - 该研究指出,如果模型的上下文学习能力得到提升,人类在AI系统中的角色可能从主要的数据提供者转变为上下文提供者,行业竞争焦点可能从模型训练转向上下文提供[30] - 大模型如何记忆很可能成为2026年的核心主题,充分发挥大语言模型的潜力可能需要新的架构和优化方式来决定知识的保留[30] - 未来,一旦大模型的上下文学习与记忆变得可靠,模型或许就能实现自主学习,自主准备上下文并从中学习巩固[30]