Workflow
DeepSeek R1
icon
搜索文档
AI革命和泡沫分析框架(一):AI的1998——科网泡沫再审视
长江证券· 2026-01-31 20:00
报告核心观点 - 本报告通过复盘1995-2001年的科网泡沫,构建了一个包含宏观、产业、市场三个层面共八个维度的泡沫分析框架,用以评估当前AI产业的发展阶段与潜在风险[4][7] - 报告认为,与科网泡沫时期相比,当前美国宏观环境不及当时,但流动性更好;产业端尚未形成有效的全社会变现模式;市场端估值和构成更为健康,整体尚未形成严重泡沫[4][7][10] - 报告基于历史对比,提出了未来AI产业演进的三种情景假设,并认为当前可能处于类似科网泡沫1997-1998年的泡沫逐步形成阶段[11] 泡沫分析框架 - 报告借鉴学术研究,提出衡量泡沫的八大维度,并归类为三个层面[20] - **宏观层面**:包括**叙事催化剂**(是否有关键事件或人物推动)和**杠杆水平**(融资环境是否宽松)[20] - **产业层面**:包括**故事性**(技术叙事是否吸引人)、**应用场景**(是否在用户熟悉的基础上变革)、**未来竞争格局**(是否被过分美化)和**商业模式**(盈利路径是否确定)[20] - **市场层面**:包括**经验不足的投资者**(是否有大量新投资者涌入)和**纯粹可投资标的**(是否有直接反映技术命运的上市公司)[20] 科网泡沫演进历程复盘 - **萌芽期(1995-1996)**:以网景(Netscape)上市为标志,在线浏览器商业模式被验证,Windows普及,雅虎等公司陆续上市[23] - **扩散期(1997-1998)**:亚马逊上市推动电商模式形成,互联网进入真实消费场景,1998年末俄债违约导致全球资金流向美元资产,美股流动性泛滥[23] - **膨胀期(1999-2000)**:美联储降息,市场对“千年虫”带来的硬件更换需求预期强烈,互联网广告等业务快速增长,颠覆式创新叙事盛行[23] - **破裂期(2000-2001)**:美联储连续加息导致流动性紧缩,“千年虫”需求证伪,微软反垄断案、安然等公司财务造假事件爆发,大量互联网公司倒闭,纳斯达克指数大幅回撤[24] 宏观环境对比:AI时期 vs. 科网时期 - **科网时期(上世纪90年代)**:美国处于“黄金时期”,呈现高增长(GDP同比增速约4.5%)、低通胀(CPI约2%)、低失业率特征[31];1999-2000年为抑制通胀(CPI从1.5%攀升至3.5%)而连续加息,联邦基金目标利率突破6%[31];非金融企业和居民部门杠杆率在1995-2002年间持续走高[33];政策催化剂强劲,克林顿政府推出“信息高速公路”战略,并放松行业与金融监管(如1999年《金融服务现代化法》允许金融混业经营)[36][39] - **AI时期(当前)**:美国宏观处于“经济韧性较强、就业弱平衡、通胀温和”的阶段,GDP进入低速增长区间,与90年代的“黄金时期”相去甚远[40];当前已进入降息通道,流动性有望持续宽松,出现类似2000年流动性骤然紧缩的可能性不大[40];美国非金融企业部门和居民部门正处于去杠杆过程中[8][52];政策层面,特朗普政府虽从顶层定调支持AI(如“星门计划”拟投资5000亿美元),但扶持政策仍以投资和联合研发为主,监管放宽程度不及科网时期[8][49] 产业端对比:商业模式与盈利前景 - **科网时期**:至2000年泡沫破裂时,数字广告业务已初具规模,美国广告总支出占GDP比例接近1.8%,头部公司营收增速已处于较高水平[55][56];但行业尾部竞争快速恶化,2000年第一季度互联网广告市场CR50一度跌破80%[58][59];硬件端(如英特尔、思科)和软件端(如微软、亚马逊)的主要公司在2000年后利润增速均出现明显回落,商业模式未能实现闭环盈利[9][61] - **AI时期**:当前AI大模型在全社会范围内尚未形成有效的变现手段[9];生成式AI渗透率仍处于高速增长阶段,但尚未跨过30%的临界点,技术趋势仍处于上半场[9][66];市场担忧北美云服务提供商(CSP)大规模资本支出(Capex)的回报,但财务指标尚未普遍严重恶化[9][69];具体看,四大CSP厂商(微软、谷歌、亚马逊、Meta)净现金流自2023年高点后转弱,2025年前三季度平均现金/资产比率约为7.8%,较前几年(如2023年的12.98%)有所下降但幅度有限[69][72];资本支出/自由现金流比值预计仍小于1,表明企业尚可自行覆盖开支,未出现过度依赖外部融资的情况[76][81] 市场端对比:估值与投资者结构 - **科网时期**:纳斯达克指数市盈率(TTM)在泡沫鼎盛时期一度超过90倍[82];主要科网公司(如微软、甲骨文、思科)的估值自1999年起显著抬升[10][83];2000年泡沫冲顶时期(1月至9月),纳斯达克指数涨幅几乎全部由估值驱动(贡献47.9%),盈利贡献为负(-60.5%)[89][92];IPO市场狂热,1999年IPO发行金额达953亿美元,同比增长133.6%,但其中盈利企业占比仅17%左右[93][95];大量无经验的散户投资者涌入并进行高杠杆交易(如E*Trade的投资者进行保证金交易的概率是美林证券客户的7倍以上)[100] - **AI时期**:截至2025年12月11日,纳斯达克指数市盈率(TTM)位于历史均值+0.5倍标准差附近,约40倍,远低于科网泡沫顶峰[82][85];主要AI相关公司(如谷歌、脸书、亚马逊、微软、英伟达)的估值仍保持在正常水平[10][83];2020年1月至2026年1月,纳斯达克指数上涨主要依赖盈利驱动(贡献100.4%),估值贡献为负(-3.9%)[89][90];IPO市场平稳,2024年美国IPO募资金额为237亿美元,同比增长25%,处于2015年以来较低水平,且尚无纯粹的AI大模型标的上市[10][93];散户资金稳定流入但未激增,2025年纳斯达克综合指数ETF净流入2.2万亿美元,同比增长27.9%[100][102] 未来情景假设与观测指标 - 报告基于与科网泡沫的对比,提出AI产业未来演进的三种情景假设[11][104] - **乐观预期(对应1999年,泡沫鼎盛)**:新增toC端需求爆发,估值突破天花板并被盈利消化[11][104] - **中性预期(对应1997-1998年,泡沫逐步形成)**:降本(toB端)需求持续演进但无新增需求,行情在硬件与软件端或硬件产业链内部轮动[11][104] - **悲观预期(对应2000年Q2,泡沫顶部结构)**:需求未兑现或被证伪、投资过剩超出大厂承受范围、流动性收紧三者叠加[11][104] - 报告建议关注的关键观测指标包括:toC端新应用发布节奏、英伟达订单交付周期、SaaS公司AI功能付费率、美联储政策与通胀数据、散户资金流入规模、以及Anthropic和OpenAI等头部公司的上市节奏[104]
字节阿里DeepSeek决战春节:一场关乎14亿人的重磅AI大战
36氪· 2026-01-30 19:01
文章核心观点 - 中国AI产业在即将到来的春节将迎来关键竞争节点,字节跳动、阿里巴巴和DeepSeek等公司计划发布重磅AI产品,争夺14亿用户的生活入口和未来互联网秩序的主导权 [1][18] 字节跳动战略与产品 - 公司计划在下个月(春节前后)密集发布三款旗舰模型:大语言模型Doubao 2.0、图像生成模型Seedream 5.0以及视频生成模型SeedDance 2.0,形成“全模态三件套” [2] - 此举旨在巩固其“内容之王”的护城河,确保用户通过AI生成和修改视频等活动发生在自有生态内,同时为其高速增长的云业务提供顶级模型弹药以挑战阿里云 [3][4] - 公司旗下AI应用“豆包”的周活跃用户已达1.55亿,并已将AI能力深入集成至抖音这一庞大流量平台 [3] 阿里巴巴战略与产品 - 公司将在春节期间推出新一代旗舰模型Qwen 3.5,该模型在数学、代码能力和复杂推理任务上实现质的飞跃 [5][6] - 公司正对“通义千问”App进行脱胎换骨改造,在1月的更新中打通了电商、酒旅和支付等核心生态服务,使其从一个聊天机器人转变为能处理点外卖、订机票等事务的“全能助理智能体” [6][7] - 公司的战略意图是通过千问App接管用户的生活服务,以对抗字节跳动对用户娱乐时间的占据,并计划在2026年完成阿里生态所有服务与千问App的深度整合 [7][8] - 目前千问App的月活跃用户已突破1亿,春节营销战是缩小与字节差距的关键战役 [8] DeepSeek战略与产品 - 公司计划在春节前后发布代号为V4的新一代模型,这不是一次常规迭代,而是在代码编写和超长上下文处理上展现出惊人统治力,据称某些关键指标超越了OpenAI的GPT和谷歌Gemini [9][10] - V4模型能处理极长的代码提示词并在长训练过程中保持数据模式不退化,这对构建复杂软件系统至关重要 [10] - 公司的独特优势在于其CEO梁文锋主导研发的新型训练架构,使其能在不按比例增加芯片数量的情况下训练出更大规模模型 [13] - V4模型的发布旨在证明中国公司在底层逻辑推理和代码生成上拥有定义行业标准的能力 [13] 行业竞争格局与影响 - 腾讯随着姚顺雨的入职及战略调整,也将在AI领域发力以加速追赶第一梯队 [15] - 此次春节的竞争标志着AI将从科技圈的谈资和玩具,真正渗入14亿人生活的毛细血管,具体表现为字节的“全模态生成”、阿里的“生活代理”以及DeepSeek的“极致推理”的全面落地 [16] - 这场竞争本质上是关于“入口”的战争,谁能成为AI时代的超级应用,谁就能定义下一个十年的互联网秩序 [18]
兰德:《美中人工智能市场竞争:大模型全球使用模式分析》报告
文章核心观点 - 兰德公司报告揭示,美国AI模型虽占据全球流量主导地位,但市场格局因中国开源模型DeepSeek R1的崛起而发生剧变,显示出美国领导地位的脆弱性及全球AI竞争正沿地缘政治断层线分裂 [2][4][15] - 中国模型通过满足增量市场需求实现份额跃升,其增长并未蚕食美国模型的存量用户,表明全球AI市场远未饱和且存在巨大未满足需求 [4][5] - 驱动用户选择的核心因素并非价格、多语言支持或政府外交,而是模型性能是否跨越“可用性阈值”以及该领域极低的用户转换成本 [8][9][10][12] - 中美科技企业的根本商业模式差异可能影响长期竞争格局,中国倾向于将AI视为可承受亏损的公共基础设施,而美国公司遵循追求高利润的硅谷风险投资模式 [13] - 未来的竞争态势将极度动荡,持续创新是美国维持优势的唯一防御手段,而技术生态的竞争也关乎数据主权和文化影响力 [15][16] 全球AI市场竞争格局演变 - **美国模型的绝对统治与脆弱性**:截至2025年8月,美国大语言模型占据全球约93%的网站访问流量,从2024年4月到2025年5月,全球主要LLM平台月访问量从24亿次增长三倍至82亿次 [4] - **中国模型的突破性增长**:DeepSeek R1发布后两个月内,基于中国的LLM网站访问量激增460%,全球市场份额从约3%迅速攀升至13%,随后稳定在6%左右,实现了质的飞跃 [4][5] - **增量市场与地缘政治色彩**:中国模型的增长主要来自新开辟的增量市场,而非蚕食美国存量用户,且增长与国家人均GDP呈负相关(r=-0.25),在俄罗斯、中东、非洲、南美洲等发展中地区渗透率爆发 [5][6] - **地缘化使用版图**:2025年,中国模型在11个国家的市场份额超过20%,在30个国家超过10%,其使用版图与现实世界的地缘政治版图高度重合 [6] 驱动因素的传统认知与数据真相 - **价格并非消费者决策核心**:尽管中国模型API定价具碾压优势(如DeepSeek R1每百万输入token成本0.55美元 vs ChatGPT 4.1的2.00美元),但约98%的ChatGPT用户使用免费版本,终端用户的“零成本”体验使B端价差失效 [9] - **多语言能力护城河被填平**:中国模型如Qwen支持语言数量从26种暴增至119种,DeepSeek也宣称支持超100种语言,基础可用性上语言已非主要门槛 [10] - **政府外交努力与用户实际选择脱节**:2015至2025年间,中国使馆发布的AI合作公告数量比美国多32%,覆盖目标国家多166%(达1257个次),但政府层面的推广并未有效转化为个人用户的实际流量 [10] 市场格局剧变的根本原因 - **性能阈值是关键转折点**:在DeepSeek R1发布前,美国模型97%的份额源于中国模型太弱,缺乏可行替代品,是垄断而非竞争的结果,一旦中国模型核心性能跨过“可用性阈值”,格局瞬间坍塌 [12] - **近乎零的用户转换成本**:AI大模型领域,用户在不同模型间切换无需新硬件、数据迁移或学习新操作,所有交互通过浏览器聊天框完成,使得先发优势极度脆弱,品牌忠诚度不堪一击 [12][13] - **商业模式的根本差异**:美国公司遵循硅谷风投模式,追求烧钱增长后高额利润回报,中国公司在政府补贴和产业政策支持下,更倾向于将AI作为可承受亏损的公共基础设施进行长期投入 [13] 未来竞争态势与启示 - **创新成为唯一防御手段**:由于缺乏用户锁定护城河,美国维持领导地位的唯一途径是持续不断的创新,一旦创新速度放缓或被追平,地缘政治偏好和成本优势将迅速填补真空 [15] - **全球化市场沿地缘政治线分裂**:全球AI市场正沿地缘政治断层线分裂,在“全球南方”,一个替代性的技术生态正在形成,这涉及数据主权、文化影响力和未来数字基础设施控制权的更深层博弈 [15] - **商业模式面临根本性质问**:如果未来竞争核心在于谁能最快将技术转化为廉价、普及的公共服务,那么硅谷依赖高利润垄断的商业模式,在与将AI视为公共产品的举国体制竞争中,可持续性存疑 [16]
2026了,大厂们还在用撒钱这招搞AI
第一财经· 2026-01-26 13:24
文章核心观点 - 互联网大厂在2026年春节期间仍采用“撒钱”红包战术推广AI应用 但该策略在AI赛道可能难以持续 无法像过去在支付、短视频等领域那样有效构建长期竞争力 因为AI时代的技术和产品体验权重远高于资本投入 用户只会为价值而非红包停留 [3][4][5] 春节AI红包营销战术分析 - 腾讯旗下“元宝”与百度等大厂在2026年春节投入巨额资金进行营销 腾讯元宝豪掷10亿 百度撒出5亿 延续了互联网行业熟悉的“烧钱换用户”战术 [3] - 该战术选择春节“合家欢”场景 旨在实现技术普惠与圈层穿透 将AI应用推送给数亿用户 完成全民AI启蒙 被认为是成本高昂但可能最有效率的市场教育方式 [3] - 大厂此举除了主动进攻 也包含防御意图 字节跳动旗下火山引擎已成为总台春晚独家AI云合作伙伴 其豆包应用也将参与 百度、腾讯的撒钱行为某种程度上是对字节系AI的防御性卡位 [3] “烧钱”战术在AI赛道的局限性 - 红包营销只能带来暂时的流量高峰和用户增长 但难以维持 例如 去年腾讯元宝在接入DeepSeek R1模型并强力推流后 一度冲上苹果应用商店免费榜首 但几个月后便掉出前十 表明脉冲式流量会迅速退潮 [4] - 过去在打车、外卖、短视频等领域成功的“烧钱换用户”逻辑 在AI赛道不完全奏效 因为AI产品的体验门槛低但用户决策成本高 用户对“工具型AI”的耐心有限 若不能快速证明价值(如准确回答、高效完成任务) 用户会立刻卸载 [5] - 商业竞争最终回归产品力 在AI时代 技术壁垒的权重远高于资本壁垒 产品力不仅是第一生产力 更是唯一的硬通货 如果产品在体验、模型能力及与生态融合上没有本质飞跃 无法解决用户真实痛点 营销热闹注定短暂 [4][5] 以产品与技术驱动的替代成功路径 - 非大厂出身的AI公司DeepSeek证明了“反营销的胜利” 其没有进行大规模补贴和传播 但因开源模型能力强大、推理逻辑清晰、好用 在开发者、学生、内容创作者等核心用户群体中积累了口碑 并外溢至大众市场 [4] - DeepSeek的成功路径是由专业圈层向泛人群扩散 这种基于产品和技术实力的增长方式比纯流量打法更扎实、更抗周期 其影响力甚至倒逼腾讯、百度等大厂主动接入其模型 为自家产品注入活力 [4]
2026年美中AI市场竞争
搜狐财经· 2026-01-25 23:12
市场格局 - 当前全球AI大模型市场呈现美国主导、中国追赶的格局,截至2025年8月,美国模型占据**93%** 的全球访问量,保持压倒性优势 [1] - DeepSeek R1在2025年1月发布后,中国模型市场份额在短短两个月内从**3%** 飙升至**13%**,访问量增长**460%**,并在30个国家实现**10%** 以上的渗透率 [1][22] - 这种爆发式增长并未蚕食其他中国竞品,而是整体扩大了国产模型的市场基本盘,表明当性能差距缩小至临界点,用户转换成本极低的AI市场将呈现高度流动性 [1][22] 美国优势 - 美国企业的核心优势根植于“技术-资本-生态”三位一体的护城河,以OpenAI、Google、Anthropic为代表的企业坐拥先发红利,已建立强大的品牌认知和用户习惯 [2] - 技术层面,美国顶尖模型在通用能力、推理深度和创造性任务上仍保持实质领先,构成了用户留存的基石 [2] - 资本层面,尽管OpenAI预计2024年亏损达**50-80亿美元**,Anthropic也面临**30亿美元**亏损,但私营风投体系支撑其“烧钱换增长”战略 [2] - 生态层面,闭源策略通过API经济和开发者绑定形成商业闭环,企业客户**85%** 的收入贡献率远高于中国竞品 [2] 中国策略 - 中国市场的竞争优势体现为“政策-成本-开源”的系统性反击能力,最显著的是价格优势:中国模型API定价仅为美国竞品的**1/6至1/4**,例如DeepSeek R1每百万token输入成本**0.55美元**,而ChatGPT高达**2美元** [3][24] - 开源战略是颠覆性变量:DeepSeek、Qwen等模型支持本地部署,Ollama平台数据显示中美模型在离线环境部署量已持平,这意味着中国模型的实际市场份额被网页统计工具系统性低估 [3] - 政策层面,中国政府将AI基础设施定位为公共品,通过补贴训练成本、算力资源和电力消耗,支撑企业以超低价甚至免费策略抢占市场 [3] 技术竞速 - 中国模型在多语言支持上实现跨越式发展,Qwen从2.5版的**26种**语言暴增至3版的**119种**,DeepSeek也快速支持**102种**语言,基本抹平了美国模型的语言壁垒 [4][24] - DeepSeek通过MoE架构创新和工程优化,在推理能力上逼近美国顶尖模型,其R1版本在数学、代码等专业任务上已能分庭抗礼 [4] - 但美国在基础科研和顶尖人才密度上的优势依然稳固,斯坦福AI指数2025报告指出,美国AI博士数量、顶级会议论文影响力等核心指标仍领先,从“追赶”到“超越”的质变尚未发生 [4] 市场分化与驱动因素 - DeepSeek的增长呈现“南升北降”格局:在中东、非洲、拉美及俄罗斯等地区,市场份额增幅超过**10%**,而美国盟友体系和北约国家增幅普遍低于**5%** [5] - 相关性分析显示,DeepSeek发布后,中国模型市场份额与人均GDP呈现显著负相关(**r=-0.25**),说明经济因素成为核心变量 [5] - 在AI外交领域,中国在2024-2025年间发布了**401项**AI合作声明,覆盖**1257个**国家人次,远超美国的**304项**和**473个**国家人次,这为政府项目和大型企业采购铺平了道路 [5][24] - 全球LLM使用量增长迅速,从2024年4月到2025年8月,主要LLM平台的网站访问量增加了三倍,从估计的**24亿**次月访问量增至近**82亿**次 [22] 未来竞争关键变量 - 未来竞赛的终局将取决于三个变量的演化:性能瓶颈的突破能力、商业模式的可持续性以及生态锁定效应的构建 [6] - 当前双方都在亏损运营,美国依赖资本市场输血,中国依赖财政滋养,谁先实现技术-商业闭环谁将掌握主动权 [6] - 当前极低的用户转换成本是市场最大的不稳定因素,谁能通过企业级解决方案、行业定制模型和开发者工具链创造真实壁垒,谁就能将流量优势转化为持久份额 [6][23]
2026年美中AI市场竞争态势与DeepSeek的突围-英文版
搜狐财经· 2026-01-23 02:44
全球LLM市场增长与格局 - 全球主要LLM平台月访问量从2024年4月的24亿次增至2025年8月的82亿次,增长超过三倍 [1][21][58] - 美国模型在2025年8月占据全球市场份额的93%,维持压倒性主导地位 [1][21][58] - 中国模型在2025年1月DeepSeek R1推出后访问量激增,两个月内增长460%,全球市场份额从3%跃升至13% [1][21][58] - 截至2025年8月,中国模型在30个国家的渗透率超过10%,在11个国家的市场份额达到20% [1][21] DeepSeek R1的颠覆性影响 - DeepSeek R1于2025年1月推出,其成功并未分流其他中国模型的流量,反而带动了中国LLM整体市场的扩张 [1][21][58] - DeepSeek的崛起导致中国LLM全球市场份额在两个月内从3%提升至13%,此后在2025年8月回落至约6% [21][58][61] - 其他数据源佐证了中国模型的市场地位:Sensor Tower数据显示DeepSeek移动端下载量约为ChatGPT和Gemini总和的十分之一;OpenRouter数据显示截至2025年8月,中国模型处理了其约16%的令牌量 [62] 区域采用模式与驱动因素 - 中国模型的市场份额增长主要集中在俄罗斯、中东、非洲和南美等发展中国家及与中国政治经济联系紧密的国家 [1][63] - 在美国盟友、北约国家及参与美国印太战略的国家,中国模型的增长较为温和 [2][63] - 统计分析显示,DeepSeek R1发布后,一国对中国LLM的采用率与其人均GDP呈显著负相关,表明经济因素在推动中国模型在发展中国家采用方面扮演重要角色 [66][68] 采用驱动因素分析 - **定价**:中国模型API费用仅为美国同类产品的1/6至1/4,但由于约98%的用户使用免费层级,定价差异并非关键驱动因素 [2][21][22] - **多语言支持**:美国模型曾领先,但中国模型快速追赶,例如Qwen模型支持语言从26种扩展至119种,DeepSeek R1支持超100种语言,差距显著缩小 [2][22] - **AI外交**:2015至2025年间,中国发布了401项AI合作公告,覆盖1257个国家/次,远超美国的304项和473个国家/次,但此类政府间活动对普通用户选择影响有限 [2][22] 竞争动态与未来展望 - 美国模型的主导地位源于先发优势和性能优势,但DeepSeek R1的成功证明,当中国模型缩小性能差距后,由于用户切换成本低,市场份额可能快速转移 [2][24] - 中美LLM竞争进入动态博弈阶段,随着技术差距进一步缩小且切换成本维持低位,市场格局可能持续变动 [3][24] - 美国需持续维持性能优势以巩固市场地位,而中国模型凭借性能提升、政策支持及成本优势,已在全球市场站稳脚跟 [3]
一个被忽视的Prompt技巧,居然是复制+粘贴。
数字生命卡兹克· 2026-01-22 11:09
文章核心观点 - 一种名为“提示词重复”的简单技巧能显著提升非推理类大语言模型的回答准确率 该方法仅需将用户问题原样复制粘贴一遍 无需添加任何额外指令或解释 根据谷歌论文的实验结果 在70个基准模型组合测试中 该方法在47个组合中胜出 其余23个打平 无一失败 部分任务准确率可从21%飙升至97% [1][5][7][25] - 该技巧主要适用于非推理模型 对已具备思维链能力的推理模型效果有限 其原理在于大模型是因果语言模型 重复问题为模型提供了“回头看”的机会 使其在第二次处理问题时能结合第一次的全部信息进行更准确的表征和判断 [14][28][30][31] - 这一发现挑战了人们对提示词工程复杂化、玄学化的普遍认知 表明对于许多纯粹的问答场景 最简单直接的重复操作可能是最有效的优化手段 其思想可类比人类社会的复述、强调等行为 并可能影响未来模型的训练与推理优化方向 [45][46][48][51][52] 实验设计与方法 - 谷歌的研究测试了七个主流非推理大模型 包括Gemini 2.0 Flash、Flash Lite、GPT-4o、GPT-4o-mini、Claude 3 Haiku、Claude 3.7 Sonnet以及DeepSeek V3 均通过官方API进行测试 [13] - 测试任务涵盖多个常见基准数据集 如ARC、OpenBookQA、GSM8K、MMLU-Pro、MATH等 并包含两个自定义任务:NameIndex和MiddleMatch 用于测试模型在列表索引和中间匹配场景下的表现 [18][19][20] - 实验方法极为简单 仅将原始查询模板从“<查询>”改为“<查询><查询>” 即在原问题后不加任何修饰地直接重复一遍问题本身 然后对比两种方式下模型的回答准确率 [22][23] 实验结果与数据 - 提示词重复方法在70个基准模型组合测试中赢得了47次 其余23次打平 没有一次失败 所有测试模型的性能均得到了改善 [7][25] - 性能提升显著且广泛 在某些任务上 模型的准确率从21.33%大幅提高至97.33% [1][7] - 衍生实验表明 将提示词重复三遍也能带来类似的性能提升效果 [27] 技术原理阐释 - 大语言模型通常采用因果语言模型架构 在生成下一个词时只能看到之前的文本 无法前瞻后续内容 [28][29] - 当问题被重复时 例如从“Q”变为“Q1Q2” 模型在处理第二个问题“Q2”的每个词时 其注意力机制可以“看到”第一个问题“Q1”的全部内容 这相当于为模型提供了一次回顾和重新思考整个问题的机会 [30][31] - 通过一个选择题的例子进行类比说明:第一次阅读选项时 模型缺乏后续的场景信息作为判断依据 而当问题重复后 模型在第二次处理选项时 已经携带了第一次获得的完整场景信息 从而能做出更准确的判断 [34][36][37] 适用性与影响 - 该技巧主要对非推理模型有效 例如DeepSeek V3 而对于像DeepSeek R1这类具备深度思考能力的推理模型效果不明显 因为推理模型在思考过程中已经自发地学会了复述问题这一技巧 [14][40][41] - 非推理模型与推理模型的核心区别在于速度与准确性的权衡 非推理模型响应速度快但准确性相对较低 推理模型准确性高但速度慢 提示词重复技巧可以在不牺牲非推理模型速度的前提下 大幅提升其准确性 因此在许多实际应用场景中具有重要价值 [15][17][18] - 这一发现促使人们重新思考提示词工程的价值 对于许多短问题问答场景 复杂的提示词结构可能并非必要 最简单的重复操作可能带来最显著的收益 [45][50][51] 未来展望与引申思考 - 论文提出了未来的研究方向 包括将提示词重复结构融入模型的预训练或微调流程 优化推理阶段的键值缓存以提升效率 尝试只重复提示词的关键部分 以及探索在多模态输入上的应用等 [52] - 文章将这一技术原理引申至人类行为与社会现象 指出重复是人类社会中普遍存在的强化认知和情感的手段 如复述、强调、朗诵、宣誓等 人工智能世界的规律在某种程度上是高度压缩后的人类世界规律的反映 [55][62][65] - 最终 文章建议在面对复杂问题或混乱情境时 无论是与AI交互还是处理个人事务 重复核心信息以聚焦重点可能是一种简单而有效的策略 [66][67][68]
海外AI年度复盘及财报综述:狂欢将尽还是新周期开启?
东吴证券· 2026-01-21 17:57
报告行业投资评级 - 增持(维持) [1] 报告的核心观点 - AI产业正从2024-2025年的狂热扩张期,逐步转向需求兑现与效率竞争并重的新周期,市场存在局部泡沫而非系统性崩盘 [5] - 2026年将成为AI产业分化加剧、商业闭环验证的关键年份,投资逻辑将从泛AI概念普涨转向精选真实变现能力、成本优势与护城河的结构性机会 [5] - 风险主要集中于以OpenAI为核心、扩张激进的生态链条,而看好谷歌的全栈整合优势及Anthropic的专注和成本控制策略 [5] 根据相关目录分别进行总结 1. AI投资:泡沫与革命并存,局部风险而非系统崩盘 - 市场泡沫论在2025年第三季度集中发酵,多数AI相关美股财报后股价回调,市场对利好消息反应有限、对利空消息更为敏感 [5][15] - 市场主要焦虑点集中在巨额资本开支(CapEx)、折旧争议、循环订单与债务融资,但报告认为这些主要是阶段性情绪波动,而非基本面实质恶化 [5][21] - AI基础设施的实际使用生命周期远超市场担忧,推理需求爆发、Agent模式普及以及多模态应用落地,将为巨额CapEx提供更长回报周期支撑 [5] - 横向划分阵营:以OpenAI为核心、与微软深度绑定的生态链条存在现金流压力与战略分散风险;以Anthropic和谷歌为代表的阵营策略更稳健聚焦 [5][74] - 纵向产业链划分:上游硬件环节基本不存在泡沫;云服务层面的云巨头相对稳健而新云公司风险较高;模型层虽普遍亏损但后期利润弹性大;应用层高度分化 [74][86] 2. 算力环节:英伟达霸权下的暗流涌动 - 英伟达2025年业绩亮眼,数据中心收入同比翻倍,Blackwell供不应求,毛利率维持70-80%高位 [5] - 但英伟达一家独大格局正被多元竞争取代,ASIC芯片在推理场景的能效与成本优势逐步显现,为其传统护城河带来挑战 [5] - 谷歌TPU v7全栈优势显著,总拥有成本远低于英伟达方案,已向Anthropic等外部客户大规模输出 [5] - 亚马逊Trainium2扩张最激进,计划百万级部署并保持与英伟达双轨合作 [5] - 微软因与OpenAI深度绑定,自研芯片滞后且面临能源瓶颈,相对被动 [5] 3. 云服务市场的冰与火:巨头狂欢与新贵困局 - 云服务市场分化:三大云巨头(微软、谷歌、亚马逊)订单充裕、现金流稳健 [2] - 微软FY26Q1剩余履约义务达3920亿美元,同比增长51% [2] - 谷歌云2025年第三季度承诺余额1557亿美元,同比增长82% [2] - AWS虽增速相对平稳但10月新签订单已超第三季度全季 [2] - 云巨头盈利能力强劲:2025年第三季度谷歌云利润率提升至23.7%,AWS维持36.4%高位,微软Azure储备订单激增但毛利率承压 [2] - 新兴Neocloud(如CoreWeave、Nebius)陷入困局,表现为高估值、高负债与回款压力交织,财报后股价大幅回调 [2] - CoreWeave商业模式本质是“GPU租赁+高杠杆”,类似房地产开发商但面临更快的技术迭代风险,2025年第四季度预期收入环比增速仅13%,资本开支占收入超4倍 [2] 4. 模型层:从神话到工程,从追赶到突围 - 2025年核心脉络是AGI神话退场、工程化范式确立,中美技术差距已缩窄至6-9个月 [3][5] - 模型竞争格局分化明显: - OpenAI转向产品化但技术领先优势削弱,战略分散风险上升 [6] - Google凭借全栈优势(TPU+YouTube数据+DeepMind)强势回归,Veo3实现有声视频突破 [6] - Anthropic专注toB编程建立稳健现金流,Claude Code年度经常性收入在2025年10月已达10亿美元 [6] - 2026年大语言模型将聚焦“更快、更好、更便宜”,推理模型消耗token量是普通模型5.5倍,Agent模式多模型并行调用进一步推高算力需求 [3][6] - 多模态发展:输入端从组合式向原生多模态演进,输出端实现更长时长、更稳定的视频生成 [6] - 中国大模型群雄逐鹿,千问、DeepSeek、Kimi、智谱、MiniMax、豆包各具特色,在开源市场份额快速增长,对海外高定价模式形成冲击 [6] 5. 应用层:AI应用到底能长多大? - 需求验证的两大指标:2025年10月OpenAI与Anthropic合计年度经常性收入约200亿美元;OpenRouter平台2025年token消耗同比增长超300% [6] - toB市场商业化潜力高:2025年企业生成式AI总支出达370亿美元,同比增长超3倍,占据全球SaaS市场6%份额;垂直行业AI支出35亿美元,其中医疗健康独占15亿美元,法律6.5亿美元 [6] - toC市场呈现“通用chatbot主导+垂直AI大量死亡+少数场景顽强存活”格局,2025年通用chatbot占AI网页访问量80%以上 [6] - 编程与角色陪伴是顽强存活的场景:编程工具年度经常性收入高速增长;角色陪伴应用用户时长长、情感投入深、迁移成本高 [6] - 科技巨头内部赋能价值被低估:谷歌AI Overviews提升查询量并保持货币化率;亚马逊通过AI优化物流效率;百度、阿里、腾讯将AI嵌入原有生态 [6] 6. 投资建议 - 核心投资思路为“上游强alpha+云巨头稳健beta+应用层精选赛道” [7] - 上游算力硬件:看好英伟达,其Blackwell系列供不应求、毛利率高企,通过收购Groq补齐推理短板,是资本开支最大受益者 [7] - 云服务与全栈整合领域:建议关注谷歌与亚马逊,谷歌凭借TPU全栈优势、总拥有成本优势及Gemini与搜索深度融合展现强利润韧性;亚马逊通过Trainium百万级部署与AWS规模效应在成本控制与客户黏性上占据主动 [7] - 模型与应用层面:建议关注MiniMax与智谱,前者在多模态及角色陪伴场景实现较强商业化,后者抢占B端市场 [7] - 港股互联网公司:推荐阿里巴巴-W、腾讯控股、美图公司、快手-W,这些公司拥有庞大用户基础与数据飞轮,AI深度嵌入将驱动存量业务效率跃升与新增长曲线 [7]
DeepSeek新模型“MODEL1”曝光
第一财经资讯· 2026-01-21 17:05
新模型“MODEL1”的技术线索与进展 - 在DeepSeek-R1发布一周年之际,其官方GitHub代码库中出现了数十处此前未公开的“MODEL1”大模型标识符 [2] - “MODEL1”标识符与已知的现有模型“V32”(即DeepSeek-V3.2)在代码中被并列提及,行业根据代码上下文认为其很可能代表一个不同于现有架构的新模型 [3] - 根据开发者分析,“MODEL1”与“V32”在键值(KV)缓存布局、稀疏性处理方式以及对FP8数据格式的解码支持等关键技术方面存在区别,表明新架构可能在内存优化和计算效率上进行了针对性设计 [5] - 结合模型文件结构来看,“MODEL1”很可能已接近训练完成或推理部署阶段,正等待最终的权重冻结和测试验证,意味着新模型上线时间越来越近 [5] 新模型的技术背景与市场传闻 - 近一个月内,DeepSeek团队陆续发布了两篇技术论文,介绍了名为“优化残差连接(mHC)”的新训练方法,以及一种受生物学启发的“AI记忆模块(Engram)”,业内猜测新模型可能会整合这些最新研究成果 [6] - 此前有报道称,DeepSeek将于2月发布新一代旗舰模型DeepSeek V4,且内部初步测试表明V4在编程能力上超过了市场上的其他顶级模型,此次项目曝光或许印证了该传闻 [6] - 行业对于“MODEL1”的具体定位有不同看法,有观点认为是V4模型或推理模型R2,也有开发者认为可能是V3系列的终极版 [3] DeepSeek的技术基础与历史产品 - FlashMLA是DeepSeek独创的、针对英伟达Hopper架构GPU深度优化的软件工具,是公司模型实现低成本、高性能的关键技术之一,可以在模型架构层面减少内存占用,最大化利用GPU硬件 [4] - DeepSeek在2024年12月推出旗舰模型V3,凭借高效的MoE架构确立了强大的综合性能基础,随后在2025年1月发布了基于强化学习的推理模型R1,在解决数学问题、代码编程等复杂推理任务上表现卓越 [6] DeepSeek-R1的行业影响与中国AI开源生态 - 海外开源社区Hugging Face发布博客回顾“DeepSeek时刻”一周年,指出中国AI力量在过去一年重塑了全球开源生态 [7] - DeepSeek-R1是Hugging Face上获赞最多的模型,其开源不仅降低了推理技术、生产部署与心理三个门槛,更推动了国内公司在开源方向上形成非协同但高度一致的战略走向 [9] - 过去一年,百度、阿里巴巴、腾讯等巨头及月之暗面等初创公司大幅增加开源投入,中国模型在Hugging Face上的下载量已超越美国 [9] - 尽管西方寻求替代方案,但全球众多初创企业和研究人员正逐渐依赖中国开发的开源模型作为基础,中国AI已深度嵌入全球供应链 [9]
传DeepSeek曝新模型,梁文锋再放“王炸”?
新浪财经· 2026-01-21 15:55
下一代模型发布预期与线索 - 在R1发布一周年之际,DeepSeek的代码库更新中意外曝光了一个名为“Model1”的新模型,该模型拥有与DeepSeek-V3.2并列的独立文件,可能意味着其未沿用V3系列架构,是一条全新的技术路径[1][6] - 业界推测公司可能在今年春节复刻去年发布R1的“核爆”式发布,主要线索包括:外媒报道称DeepSeek预计将于2月中旬推出下一代人工智能模型V4[3][8],以及2025年底至2026年初公司发表了两篇关键论文为下一代模型扫清技术障碍[5][10] - 根据The Information报道,有DeepSeek员工的内部测试表明,V4在编码任务方面可以胜过Anthropic的Claude和OpenAI的GPT系列等竞争对手[4][9] 近期模型迭代与性能提升 - 自2025年3月以来,公司以“小步快跑”方式持续迭代V3模型,重点优化复杂推理、编程能力和工具调用[3][8] - 2025年3月25日,DeepSeek V3升级为V3-0324,生成的代码可用性更高,中文写作升级,在数学、代码能力上超过GPT-4.5[4][9] - 2025年5月29日,DeepSeek-R1完成小版本升级,更新后的模型在数学、编程与通用逻辑上已接近o3与Gemini-2.5-Pro,幻觉率降低了45~50%左右[4][9] - 2025年8月21日发布DeepSeek-V3.1,相比R1能在更短时间内给出答案,有更强的Agent能力,API接口调用价格为输入0.5元/百万tokens(缓存命中)、4元/百万tokens(缓存未命中),输出12元/百万tokens[4][9] - 2025年9月29日发布DeepSeek-V3.2-Exp,引入了DeepSeek Sparse Attention(一种稀疏注意力机制),API接口调用价格降至输入0.2元/百万tokens(缓存命中)、2元/百万tokens(缓存未命中),输出3元/百万tokens[4][9] - 2025年12月1日发布DeepSeek-V3.2正式版,其推理能力达到了GPT-5的水平,仅略低于Gemini-3.0-Pro,并将思考融入工具使用的模型,同时支持思考与非思考模式的工具调用[4][9] 下一代模型的关键技术突破 - 公司于2025年12月底至2026年1月发表了两篇有梁文锋署名的论文,旨在解决大模型基础架构中训练稳定性与知识检索效率两大瓶颈[5][10] - 论文《mHC: Manifold-Constrained Hyper-Connections》提出了“流形约束超连接”(mHC)框架,通过数学上的流形投影将残差连接空间约束在特定流形上,在保留强大表达能力的同时强制恢复网络的恒等映射特性,从根源上保障训练稳定性[5][10] - 与北大合作的论文《Conditional Memory via Scalable Lookup》提出了“条件记忆”模块(Engram),将高频静态知识以嵌入表形式注入Transformer层,通过解耦知识存储与神经计算,证明用基于哈希的查找表替代约20%的混合专家(MoE)参数,可显著提升推理与知识任务性能[5][11]