大模型
搜索文档
用大模型沟通猛兽派选股
猛兽派选股· 2026-02-14 18:55
文章核心观点 - 文章介绍了一套名为“猛兽派动量体系”的原创技术分析指标组合 该体系由VAD、OVS、RSR、RSL、SSV五个核心指标构成 是一个内部专用的闭环系统 [4] - 该体系旨在通过五个指标的联动 系统性地识别和判断股票的趋势强度与动量变化 [5] 猛兽派动量体系核心指标 - **RSL指标**:全称为Relative Strength Long 即长期相对强度 用于衡量个股对比大盘或板块的长期趋势强度 是筛选潜力股的基础 [6] - **RSL指标功能**:该指标主管中期大趋势的强弱 其作用是确定投资方向和甄别牛股的底色 [8]
豆包再扔王炸!2.0发布:推理成本降一个数量级,正面对标GPT-5和Gemini 3
华尔街见闻· 2026-02-14 18:53
豆包大模型2.0版本发布 - 字节跳动旗下豆包大模型正式进入2.0阶段,推出面向Agent时代的系统性升级版本 [2] - 新版本在保持与GPT-5.2和Gemini 3 Pro相当性能的同时,将推理成本降低约一个数量级 [2] - 该系列模型已全面上线,包括豆包2.0 Pro、Lite、Mini三款通用Agent模型和专门的Code模型 [2] 多模态能力表现 - 豆包2.0全面升级多模态能力,在视觉推理、感知能力、空间推理与长上下文理解等任务上表现突出 [2] - 在动态场景理解方面,该模型在TVBench等关键测评中领先,在EgoTempo基准上甚至超过人类分数 [4] - 在长视频场景中,豆包2.0在大多数评测上超越其他顶尖模型,并在多个流式实时问答视频基准测试中表现优异 [5] - 其能力使其能够作为AI助手完成实时视频流分析、环境感知、主动纠错与情感陪伴,实现从被动问答到主动指导的交互升级 [6] 推理与专业能力 - 豆包2.0 Pro在多数视觉理解基准测试中达到业界最高水平,并在数学奥赛IMO、CMO和编程竞赛ICPC中获得金牌成绩 [2] - 通过加强长尾领域知识,豆包2.0 Pro在SuperGPQA上分数超过GPT-5.2,并在HealthBench上获得第一名,在科学领域的整体成绩与Gemini 3 Pro和GPT-5.2相当 [8] - 在推理和Agent能力评测中,该模型在IMO、CMO数学奥赛和ICPC编程竞赛中获得金牌成绩,也超越了Gemini 3 Pro在Putnam Bench上的表现 [9] - 在HLE-text(人类的最后考试)上,豆包2.0 Pro取得最高分54.2分,在工具调用和指令遵循测试中也有出色表现 [10] 成本与商业化应用 - 该模型在保持与业界顶尖大模型相当效果的同时,token定价降低了约一个数量级,这一成本优势在大规模推理与长链路生成场景中将变得更为关键 [12] - 基于OpenClaw框架和豆包2.0 Pro模型,公司在飞书上构建了智能客服Agent,能通过调用不同技能完成客户对话,遇到难题时会主动拉群求助真人同事,帮客户预约上门维修人员,并在维修后主动回访和推荐产品 [13][14] - 豆包2.0 Pro已面向C端用户在豆包App、电脑端和网页版上线“专家”模式;面向企业和开发者,火山引擎已同步上线豆包2.0系列模型API服务 [18] Code模型与开发效率 - 豆包2.0 Code基于2.0基座模型针对编程场景进行优化,强化了代码库解读能力和应用生成能力,并增强了模型在Agent工作流中的纠错能力 [16] - 该模型已上线TRAE中国版作为内置模型,支持图片理解和推理 [16] - 在实际应用中,开发者使用TRAE配合豆包2.0 Code,仅需1轮提示词就能构建出“TRAE春节小镇·马年庙会”互动项目的基本架构和场景,经过5轮提示词即可完成整个作品 [16] - 该项目包含11位由大语言模型驱动的NPC,能根据人设自然聊天、招呼顾客、现场砍价,AI游客也会自主决定去哪家摊位、买什么、说什么 [17]
GPU四小龙,春节不打盹儿
第一财经· 2026-02-14 18:23
国产GPU与大模型适配现状 - 春节前后国产大模型密集发布,包括字节跳动Seedance2.0、智谱GLM-5、MiniMax-M2.5等,国产GPU企业摩尔线程、沐曦股份和天数智芯在模型发布当天即完成适配[1] - 国产GPU企业技术团队在春节期间处于“随时待命”状态,以第一时间对重磅模型(如DeepSeek)进行适配,避免在AI浪潮中掉队[1] - 适配工作旨在让大模型在国产芯片上达到预期性能(如从开箱性能50%调至80%-90%),基于通用GPU架构的适配时间远短于专用NPU架构[2] 国产GPU企业具体适配行动与产品 - 摩尔线程在MTTS5000(2024年推出的AI训练和推理一体产品)上完成对智谱新模型的适配[2] - 沐曦股份基于曦云 C系列芯片完成对智谱新一代大模型的适配[2] - 天数智芯依托天垓系列芯片完成GLM-5新一代大模型的适配[2] - 为抢夺适配时间,国产芯片企业有时采取“人肉递送”硬盘拷贝模型的方式,而非等待网络下载,参与人员需签署保密协议[3][4] 近期国产大模型进展与影响 - 字节跳动Seedance 2.0视频生成模型能力突出,可能推动国内AI漫剧、AI短剧规模化落地[3] - 阿里巴巴Qwen-Image-2.0图像生成模型在部分基准测试中能力仅次于谷歌和OpenAI[3] - MiniMax-M2.5模型在编程、办公等生产力场景达行业头部水平,并以低成本(每秒输出100 token连续工作一小时仅需1美元)为卖点[3] - DeepSeek-R1作为首个打破OpenAI推理垄断的开源模型,引爆了推理市场,提升了市场对大模型应用的信心[6] 国产GPU在AI产业链中的机会与挑战 - 大模型训练环节因成本高、风险大,客户更看重稳定性,目前仍倾向于使用英伟达产品[6] - 推理环节对算力需求相对宽松,且英伟达在华销售芯片功能受限,为沐曦股份、摩尔线程、天数智芯等国产GPU提供了替代机会[7] - 当推理业务达到满意效果时,其所需算力规模可能超过训练需求,长期运行也能验证国产芯片稳定性,打消客户顾虑[7] - 国产芯片在操作手册完善度、部署稳定性等方面与英伟达存在差距,需要在实际应用中“踩坑”和完善[7] 国产GPU企业的技术进步与突破 - 沐曦股份在2025年后软件栈性能泛化性得到很大提高,在搜推广、自动驾驶、AI4S及图生视频等特定场景可与国外厂商竞争[8] - 摩尔线程在2024年实现了万卡规模以上集群、数千亿参数模型的端到端训练落地,被认为是其年度最大突破[8] - 国产芯片企业正尝试攻破英伟达在大模型训练环节的壁垒,并认为国内头部模型与硅谷差距迅速缩小,甚至在某些项目上实现超越[8] - 国产芯片迭代速度加快,例如沐曦股份基本做到每两年至少推出两颗芯片,以抓住AI算力需求暴涨的机会[10][11] 市场合作、需求与未来展望 - 国产大模型与国产算力的配合已“渐入佳境”,Day 0适配成为常规状态[9] - 国产芯片企业与百度、腾讯、智谱、阶跃星辰等大模型公司签署了战略合作协议,合作日益紧密[9] - DeepSeek带动了私有化部署浪潮,促进了国产GPU在一体机上的推广,若其新一代模型能力大幅提升,可能刺激央企国企加大部署,为国产GPU带来更广阔市场(如基层营业厅部署一体机)[9] - 云计算客户(如优刻得)在算力卡选型上有主动权,2025年以来已有国企大客户开始指定在云服务中选用部分国产芯片[11] - 国内GPU企业在制程层面尚有短板,但行业对其通过工程学攻克难题持乐观态度,并正从与英伟达的差异化竞争(实际落地效果和性能)中寻找出路[12]
Seedance 2.0之后 字节跳动发布豆包大模型2.0
中国经营报· 2026-02-14 18:22
公司发布与产品升级 - 字节跳动于2月14日正式发布豆包大模型2.0系列 该系列针对大规模生产环境使用需求完成系统性优化 核心聚焦提升真实世界复杂任务的执行能力 [1] - 此次发布是公司继Seedance 2.0视频模型、Seedream 5.0 Lite图像模型后 在大模型领域的又一重要布局 [1] 模型性能与基准测试 - 豆包2.0 Pro旗舰版展现出顶尖的基础能力 在IMO、CMO数学竞赛和ICPC编程竞赛中取得金牌 在Putnam基准测试上的表现超越Gemini 3 Pro 数学与推理能力跻身世界前列 [1] - 在知识储备层面 豆包2.0强化了长尾领域知识覆盖 科学领域知识测试成绩与Gemini 3 Pro、GPT 5.2持平 跨学科知识应用表现位居行业前列 [1] - 多模态能力全面升级 在视觉推理、空间感知、长上下文理解等权威测试中取得业界最佳成绩 可高效理解图表、复杂文档、视频等内容 [1] - 模型对时间序列与运动感知的理解能力进一步增强 能实现实时视频流分析、环境感知与主动交互 可落地于健身指导、看护陪伴等多元生活场景 [1] Agent能力与评测 - 作为大模型行动力的核心 豆包2.0 Pro的Agent能力表现亮眼 在指令遵循、工具调用等评测中达到顶级水平 [2] - 在HLE-Text评测中 豆包2.0 Pro斩获54.2的最高分 领先其他模型 [2] 产品上市与定价策略 - 豆包2.0 Pro已在豆包App、电脑客户端及网页版上线 用户开启“专家”模式即可体验 [2] - 火山引擎同步上线了豆包2.0系列模型API服务 [2] - 定价方面 豆包2.0 Pro版32k以内输入定价为3.2元/百万tokens 输出定价为16元/百万tokens 相较Gemini 3 Pro、GPT 5.2更具性价比 [2] - Lite版百万tokens输入定价仅0.6元 其综合性能超越了两个月前发布的豆包1.8 [2]
中国大模型,正在成为全球的“默认选项”
观察者网· 2026-02-14 17:49
中国大模型在海外市场的定位转变 - 中国AI大模型已从“平替”选项转变为凭借绝对性能引发海外开发者群体性追随的行业标杆,开发者会第一时间跟进中国大模型的新版本 [1] - 海外开发者不再满足于单纯调用,而是将中国模型深度集成进核心工具链,并将其设置为默认选项,替换了GPT和Claude等原有选择 [1] 模型性能与能力突破 - MiniMax M2.5在SWE-Bench Verified榜单中获得80.2%的成绩,与Claude Opus4.6(80.8%)仅差0.6个百分点,且超过了GPT-5.2(80.0%) [8] - MiniMax M2.5具备100 TPS的原生推理速度,几乎是其他前沿模型的两倍,跑同一套测试题比上一代M2.1快了37% [8] - 卡内基梅隆大学教授测评后公开表态,M2.5是第一个综合能力超过Claude Sonnet的开源模型 [7] - Kimi K2.5拥有万亿参数,其“Agent Swarm”特性可并行调度最多100个子Agent,在高难度测试(HLE)中表现超过GPT-5.2和Claude Opus4.5 [14] 市场接受度与生态集成 - 开源编程Agent项目OpenCode(拥有10万+星标)的联合创始人宣布将MiniMax M2.5切换为默认模型 [2] - 现象级AI助手OpenClaw(两个月内GitHub获10万+星标)已将MiniMax列为推荐模型提供商并完成原生OAuth集成 [4] - 在跟踪大模型实际调用的OpenRouter平台上,Kimi K2.5的调用量超过了谷歌Gemini 3和Anthropic的Claude模型,持续霸榜榜首 [14] - 智谱GLM-5发布后,在海外主流推理平台上架当天就引发热潮,其匿名测试版本“PonyAlpha”曾在24小时内登顶OpenRouter热度榜 [9][11] 成本优势与商业价值 - MiniMax M2.5与Claude Opus4.6性能相当,但价格低至Opus的1/20 [5] - 完成一个日常编程任务,MiniMax M2.5约耗费0.15美元,而Claude Opus 4.6约需3美元,存在20倍的成本差距 [16] - 硅谷顶级投资人指出,开源模型不仅能削减90%的成本,还能提供AI主权,创造深刻的“Kimi2.5 Moment” [11] - 极致的性价比使大规模AI Agent商业落地从“烧不起”变为“随便跑” [16] 用户狂热与商业化进展 - 中国大模型的火爆催生了海外“反向代购”现象,有“数字倒爷”在TikTok上通过代充会员在短短两三天内狂赚数万美元 [16][17] - 智谱GLM-5发布后因算力供不应求上调Coding Plan订阅费,海外开发者研究“如何翻墙回国充值”以享受更低价格 [17] - Kimi K2.5发布后,其全球付费用户量实现了4倍的爆发式增长 [18] - 中国大模型在海外市场完成了从“叫好”到“叫座”的实质性跨越,商业化前景明确 [18] 资本市场反应与行业影响 - 在密集发布潮后,智谱和MiniMax股价双双飙升,MiniMax市值突破了2000亿港元 [18] - 中国大模型正告别数字游戏,在全球生态中完成“实际部署”和战略卡位,为AI Agent大规模爆发做好了准备 [18]
MiniMax新模型比肩海外头部,国产大模型开启“月更”
南方都市报· 2026-02-14 17:28
公司产品发布与性能 - MiniMax于2月13日发布最新M2.5大模型,该模型提升了智能体任务处理速度,且调用价格远低于同等级产品 [1] - M2.5完成任务的平均耗时从上一版本M2.1的31.3分钟缩短至22.8分钟,速度提升37% [1] - M2.5的任务处理耗时(22.8分钟)与Anthropic同期发布的Claude Opus 4.6模型(22.9分钟)基本持平 [1] - 在编程任务上,M2.5在BridgeBench测试中的得分仅比Opus 4.6低0.4分,但调用价格仅为后者的1/8 [1] - M2.5上线后在AI模型API聚合平台OpenRouter上的日调用量超过1000亿token,跻身平台榜单前十 [2] 产品定价与市场反馈 - M2.5定价极具竞争力,在每秒输出100个token的情况下,连续工作一小时仅需1美元;每秒输出50个token则需0.3美元 [1] - 1万美元的预算可支持4个智能体连续工作一年,公司称M2.5提供了“经济上几乎无限制地构建和运营Agent的可能性” [1] - 硅谷风投Menlo Ventures合伙人评价M2.5“超便宜,非常适合编程” [2] - 云端编程智能体平台OpenHands评价当前API模型市场是“两强争霸”,Opus代表最高能力上限,M2.5则以更低成本提供较高能力 [2] 产品应用场景与能力 - M2.5在需要长时间运行的任务上表现突出,例如从零开始构建应用程序 [2] - 除编程外,M2.5在Word、PPT、Excel金融建模等办公高阶场景的能力也取得显著提升 [2] - 公司前期与金融、法律、社会科学等领域的资深从业者深度合作,将行业隐性知识带入模型训练流程 [2] 技术进展与迭代节奏 - 在过去100多天内,MiniMax保持近乎“每月一更”的节奏,陆续推出了M2、M2.1和M2.5版本 [3] - 从编程基准测试SWE-Bench Verified的成绩看,M2系列模型的性能提升速度比Claude、GPT和Gemini等模型系列更为显著 [3] - 公司将模型能力的持续跃升归因于大规模强化学习,特别是围绕Agent RL(智能体强化学习)框架和算法搭建的完整技术体系 [3] 行业竞争态势 - M2.5的发布是国产大模型公司在春节前夕集中“交卷”的最新案例 [3] - 近期行业动态包括:字节跳动视频生成模型Seedance2.0接入豆包和即梦产品;智谱上线旗舰新模型GLM-5,同样主打编程能力;DeepSeek开始测试最高100万Token的上下文长度 [3] - 国产大模型集体“上新”引爆“AI春节档”,令全球AI竞赛更加白热化 [3]
整整21个月,豆包大模型正式进入2.0时代!
量子位· 2026-02-14 16:13
豆包大模型2.0发布 - 公司发布了豆包大模型2.0,这是时隔21个月以来的最大版本更新 [1][2][8] 模型能力提升 - 模型在多模态理解、企业级Agent、推理和代码能力上均有显著提升 [9] - 在MathVista、MathVision、MathKangaroo、MathCanvas等数学推理基准上达到业界最优水平 [9] - 在LogicVista、VisuLogic等视觉解谜与逻辑推理基准上,Seed2.0 Pro得分较Seed1.8显著提升 [9] - 在VLMsAreBiased、VLMsAreBlind、BabyVision等基准中,取得了业界最高分 [11] 多模态与企业级能力 - 多模态理解能力出色,涵盖多模态感知、高精度文字提取、图表理解、空间理解、运动理解、视觉知识和推理、长视频理解等方面 [10] - 企业级Agent能力增强,能更好支持对技能的理解和应用,Function Call、多轮指令遵循、搜索和工具调用能力显著增强,格式输出更稳定,支持灵活的上下文管理,更好地支持企业级复杂、长程任务 [10] 数学与代码推理 - 模型具备更强推理能力,支持思考长度可调节,且各思考长度下,Tokens效率都有大幅提升 [10] - 在ICPC、IMO、CMO测试中均获得金牌成绩 [10] - 实测显示,模型能很好地理解并生成复杂的代码,例如基于群论的魔方解决算法前端页面、3D版大富翁游戏,甚至《我的世界》游戏 [13][16][17][20] - 能处理复杂的数学公式图解问题和数学问题 [22][23][25] 性能与成本优势 - 虽然能力变强,但推理速度没有明显延迟 [35] - Seed-2.0系列通过架构优化,在同等性能下大幅提升了Tokens效率,意味着企业应用成本可能更低 [35][36] 行业与战略意义 - 此次发布可能意味着公司在数据质量、训练效率及应用效果上突破了一个新的临界点 [33] - 模型展现出的工具调用和长程任务规划能力,显示其战略方向是面向ToB市场和生产力工具 [34] - 模型不再局限于聊天,而是致力于帮助用户完成项目、解决难题、生成商用级内容 [30]
(经济观察)物"流"快递,中国人春节旅途轻松了
中国新闻网· 2026-02-14 16:01
行业趋势:春节出行行李寄递需求激增 - 春节期间,旅客出行呈现“轻装简从”趋势,行李提前快递寄回家成为普遍选择[1] - 以行李、年货为代表的个人寄件业务量近期同比增长约190%,与去年农历春节前同期相比增长超30%,且越临近春节需求增长越明显[3] - “团圆”观念下的春节旅游,全家出行催生了减轻行李负担的快递服务市场[4] 基础设施:中国寄递网络日益完善 - “十四五”以来,中国建成了世界上规模最大、受益人数最多的寄递网络[3] - 农村和边境地区邮政通达广度深度提升,营业网点数量较5年前增长近1.5倍,全国边境自然村全部实现通邮[3] - 快递物流触角向更远更深处延伸,释放了更多需求[3] 业务发展:生鲜年货跨区域流通成为亮点 - 节前年货礼品寄递需求旺盛,例如新疆、内蒙古、甘肃的羊肉,吉林查干湖的冷水鱼,以及南方的水果生鲜[3] - 京东物流通过投入全货机运输新疆羊肉,解决了陆运时间长、空运受航班缩减影响的痛点,业务量显著增长,全货机每天满载甚至供不应求[4] - 西北羊肉与海南水果能同时出现在年夜饭餐桌,依赖于冷链保鲜技术、公铁空一体化运输网络以及大模型在需求预测、智能调度等场景的应用[4] 公司布局:快递企业深化文旅场景服务 - 顺丰文旅为春节旅游市场提供便捷物流支撑,其行李寄递服务已在全国20多个核心旅游城市同步推出[4] - 截至2026年1月底,顺丰已进驻超500个交通枢纽、300余家景区,覆盖超2万家酒店,并与30余个文旅厅(局)及多个文旅头部品牌建立合作[4]
豆包大模型2.0发布,Pro版全面对标GPT 5.2
21世纪经济报道· 2026-02-14 15:20
豆包大模型升级至2.0阶段 - 字节跳动旗下豆包大模型于2月14日正式进入2.0阶段[1] 豆包2.0通用模型系列 - 豆包2.0系列围绕大规模生产环境需求进行系统性优化,具备高效推理、多模态理解与复杂指令执行能力[3] - 该系列包含Pro、Lite、Mini三款通用Agent模型及一款Code模型,灵活适配各类业务场景[3] - 豆包2.0 Pro面向深度推理与长链路任务执行场景,全面对标GPT 5.2与Gemini 3 Pro[3] - 豆包2.0 Lite兼顾性能与成本,综合能力超越上一代主力模型豆包1.8[3] - 豆包2.0 Mini面向低时延、高并发与成本敏感场景[3] - Code版专为编程场景打造,与TRAE结合使用效果更佳[3] 模型发布与上线情况 - 豆包2.0 Pro已在豆包App、电脑端和网页版上线,用户选择“专家”模式即可体验[3] - 豆包2.0 Code已接入AI编程产品TRAE[3] - 面向企业和开发者,火山引擎已上线豆包2.0系列模型API服务[3] 豆包视频生成模型Seedance 2.0 - 字节跳动于2月12日宣布正式发布豆包视频生成模型 Seedance 2.0[3] - Seedance 2.0现已全面接入豆包和即梦产品,并上线火山方舟体验中心[3] - 用户可在豆包App对话框选择“Seedance 2.0”入口,输入提示词生成5秒或10秒视频[4] - 该模型支持原声音画同步、多镜头长叙事、多模态可控生成[4] - 目前该模型暂不支持上传真人图片作为主体参考[4] - 公司表示Seedance 2.0仍存在诸多瑕疵,将持续探索大模型与人类反馈的深度对齐[4]
都在等梁文锋:AI战事正酣梁文锋却静悄悄,有时候,越是平静,对手越是害怕
新浪财经· 2026-02-14 15:13
中国AI大模型行业竞争格局 - 互联网巨头正激烈争夺AI大模型的C端流量入口,行业大战已至 [3][4][22][23] - 主要厂商通过巨额现金补贴争夺用户:阿里千问投入30亿元红包,腾讯元宝撒出10亿元,百度文心助手投入5亿元,字节豆包提供最高8888元现金红包 [6][25] - 产品发布密集:字节于2月14日发布豆包大模型2.0,并于2月7日推出刷屏视频模型Seedance 2.0;阿里发布新一代图像生成模型Qwen-Image 2.0;智谱、MiniMax也同期发布新模型 [8][25] - 竞争本质在于解决用户真实需求,以定义未来十年互联网秩序,成为AI时代的超级入口 [19][36] DeepSeek公司动态与战略 - 在行业激战之际,DeepSeek显得异常冷静,仅于2月11日进行了一次低调更新,将上下文窗口长度从128K token大幅提升至1M token [4][8][23][26] - 外界猜测其可能在春节前后发布代号为V4的新一代旗舰模型,剑指Coding AI王座,但公司内部对发布时间保持沉默 [8][26] - 2026年1月,DeepSeek团队密集发布了两篇由创始人梁文锋署名的技术论文(mHC及Engram),市场推测可能与V4核心技术相关 [9][27] - 公司仍在积极招聘,例如2月5日更新了产品经理、客户端研发工程师等多个岗位,显示出持续投入 [9][27] - 公司近期招聘显示其开始重视C端产品,职责包括洞察用户需求、推动产品创新和体验优化、关注用户增长与转化 [16][33] 创始人梁文锋背景与DeepSeek历史 - 创始人梁文锋为85后,来自广东湛江,极少露面,身家上百亿 [4][23] - 其学术背景优异,17岁以高考状元身份考入浙江大学电子信息工程专业,后攻读机器视觉方向研究生 [11][29] - 于2015年与同学创立幻方量化,该公司在2021年跻身千亿量化私募行列,并拥有“万卡级别”的GPU集群,是国内少数GPU过万的企业之一 [13][30] - 幻方量化早期即全面采用AI模型,并于2019年及2021年投入超过10亿元建设“萤火一号”及“萤火二号”深度学习训练平台 [13][30] - 梁文锋在38岁时决定创办DeepSeek,旨在做通用人工智能并引领行业生态,而非简单复刻GPT [14][31] DeepSeek的技术突破与行业影响 - 2025年春节前一周,DeepSeek发布推理大模型R1并开源,其性能比肩世界顶尖水平,但成本仅约几十万美元,颠覆了顶级模型需千万美元投入的行业认知 [4][14][23][31] - 此次发布被称作“DeepSeek时刻”,标志着东方力量征服全球科技圈 [4][15][23][32] - 公司文化强调创新而非跟随,梁文锋曾言“我们大部分公司习惯follow,而不是创新” [9][27] AI应用趋势与用户生态 - AI C端应用需求爆发点将至,竞争进入“后模型”时代 [18][35] - 大厂正通过具体场景培育用户心智:阿里千问通过“点奶茶”让用户感知AI实用性;字节豆包在穿搭指导、宠物摄影、作业辅导等生活场景中渗透,其月活跃用户已突破2亿 [17][34] - DeepSeek的C端产品此前因界面极其简单被用户调侃“好像不需要赚钱”,近期招聘显示公司开始重视C端用户体验与增长 [16][33]