解读千问App接入阿里生态
2026-01-16 10:53

涉及的行业与公司 * 公司:阿里巴巴集团及其旗下产品,包括千问APP、阿里插件系统、闪购、飞猪、支付宝[1][2][5] * 行业:人工智能、大模型应用、生成式AI、电商与本地生活服务[1][2] 核心产品形态与业务模式 * 千问APP通过意图识别技术接入阿里生态,作为智能Agent整合阿里各项服务能力,用户可通过文字或语音输入完成点外卖等复杂任务[1][2] * 产品形态变化的核心是千问作为大脑中枢,通过调用插件系统(如闪购API)完成订单处理、支付授权与配送等环节,实现C端应用落地[2][5] * 这种模式拓展了生成式AI在C端的落地场景,并带来了AI原生收入规模的扩增[2] 核心技术架构与模型 * 核心大脑是千问三Max模型,为万亿参数(约1万亿)的MOE结构大规模闭源模型[1][2] * 阿里同时开源了较小的模型,如235B(2,350亿参数)和220亿激活参数的模型,但最强大的万亿参数模型未开源[2] * 大模型在业务中的核心作用是意图识别和任务拆解,具体数据检索则由各工具(如闪购、飞猪)内部使用传统搜索引擎技术完成,无需调用万亿级参数模型[1][6][8][9] * 复杂Agent任务对模型的关键能力要求包括:意图识别准确率、任务拆解能力、调用工具执行和综合推理能力,以及处理长文本和长上下文的能力[1][10][12] 算力需求、成本与推理方案 * 大模型推理的计算消耗主要体现在模型调用和数据处理上[1][7] * 不同任务消耗的Token差异巨大:普通聊天约一两百Token,点餐任务几千到三万Token,全家出行旅游规划需几万Token,处理大量表格生成报告可能上升到几十万Token[13] * 执行一个复杂文档性任务,若使用万亿参数模型,成本大约在几块钱级别[3][13] * 当前国内主流万亿参数推理模型主要依赖英伟达显卡(如H100、A100),但受禁售政策影响,存量卡为主[14] * 从2025年开始,新增算力卡约50%来自华为升腾,阿里更多与寒武纪合作,并测试其他国产算力芯片如沐曦、天枢之星等,同时有部分自研PPU芯片应用[15] * 2026年预计国产芯片品类将更多,同时需关注英伟达H200芯片能否进入国内市场[15] 成本优化与模型演进路径 * 短期内(半年至一年)仍需使用万亿参数的大规模推理模型服务C端用户,因其需求多样复杂[3][17] * 未来有望通过优化算法及硬件,开发出相对小尺寸但高效能的替代方案,在特定场景逐步减少对大型模型的依赖[3][17] * 阿里选择使用上千亿参数大模型(如235B)服务C端,主因是C端需求覆盖几千甚至几万种不同类型问题,需要最先进的模型以提供卓越体验和市场竞争优势[18] * 企业级应用因任务相对固定明确,通常不需要如此庞大的模型,较小参数模型已足够[19] * 随着技术成熟和用户体量增加,未来可能引入小参数模型处理部分C端问题以降低成本,但短期内仍优先使用大型模型以确保体验和抢占市场[20][21] 性能要求与任务挑战 * 千问APP作为Agent的核心性能要求包括:意图识别准确率、任务拆解能力、数据处理能力、长上下文处理能力[10] * 表格处理类任务因涉及大量文本和数学数据,需要高精度数据处理和推理,导致Token消耗量巨大[3][16] * 大模型在数学运算部分需要大量数据进行推理以确保结果精准,进一步增加了资源消耗[16] 业务协同与数据打通现状 * 在具体业务交互中(如点外卖),闪购等平台需专门优化服务端接口以支持千问团队实现快速响应[7] * 红包预算归属方面,推测由千问承担部分预算,闪购负责具体业务能力[22] * 目前数据尚未完全打通,例如非标品(如散装水果)购买需跳转到淘宝闪购处理,系统处于1.0版本不断测试完善阶段[22] * 数据未完全打通主要是出于产品策略考虑,为控制交付率和确保用户体验而有序逐步扩大开放范围,并非因为技术卡点[23]

解读千问App接入阿里生态 - Reportify