Workflow
Gemini 3.0 Pro
icon
搜索文档
AI破解500年《纽伦堡编年史》天书,仅用1小时,隐藏惊天真相被揭开
36氪· 2026-01-05 16:40
这些注释字迹残损严重,夹杂着大量中世纪拉丁文缩写,几个世纪以来,学者们始终无法解释它的含义。 然而,Gemini 3.0 Pro仅在一个小时内,就清晰地给出了解读! 它成功识别出:这段注释并非随意的标记,或者装饰性的涂画,而是与不同圣 经年代学体系之间的比较和计算有关。 2026开年王炸!Gemini 3.0 Pro仅用1小时,暴力破解533年未解的《纽伦堡编年史》天书。从0.02美元的算力成本到精准复原16世纪学霸的历法对账单, AI正以全知视角降维打击传统考古! 就在刚刚,500年前的《纽伦堡编年史》天书,被AI破解了! 其中的一段手写注释,难倒了人类历史学家整整500年。 也就是说,几百年前作者的逻辑,被AI精准地捕捉到,完成了整套推理! 研究者们激动地在博客中写道—— 令人难以置信的是,LMM的视觉理解能力已经发展到Gemini 3 Pro能阅读 500 年前的手写缩写速记旁注,回过头去阅读整页印刷内容,并利用页面内容来 推演和澄清速记的含义,然后将所有这些信息整合起来,得出一个能契合所有拼图碎片的最终理解,而这一切都不需要任何形式的人类协助! 老祖宗的古籍,被AI破译了! 《纽伦堡纪事报》是一部出版 ...
我的2025年度AI大盘点 - 前路已明。
数字生命卡兹克· 2025-12-31 09:21
年度大模型 - **年度写作大模型为GPT-5.2 Thinking**,该模型在指令遵循、风格迁移和世界知识方面表现极佳,超越了Gemini 2.5 Pro和GPT-4.5 [2] - **年度Coding大模型为Gemini 3.0 Pro**,其超强的前端能力和审美,能够帮助用户快速实现创意灵感 [4][7][8] - **年度绘图大模型为Nano Banana**,该模型掀起了远超GPT-4o的潮流和热度,成为AI绘图领域分水岭级别的模型,并体现了原生多模态的优势 [10][14][15] - **年度音乐大模型为Suno V5**,该模型是2025年AI音乐领域的绝对王者,将领域天花板拉高了数个级别,并在B站等平台引发了大量二创视频的井喷 [16][18] - **年度声音大模型为MiniMax Speech 2.0**,该模型在2025年5月15日发布,首次在多项指标上超越11Labs,实现了逼近真人级别的情感表达 [19][22][23] - **年度视频大模型为Sora2**,该模型以其高度真实和趣味性的生成效果,成为2025年最令人印象深刻和破圈的AI视频模型 [24][26] - **年度大模型为DeepSeek R1**,该模型于2025年1月20日发布并开源,其推理效果媲美当时顶级的闭源模型OpenAI o1,而API价格仅为后者的3.7%,奠定了中国在开源模型领域的领军地位 [27][29][30][31] 年度AI产品与功能 - **年度AI编程产品为Claude Code**,该产品能探索本地代码库上下文、修改文件、运行CLI工具,并支持将工作流封装为自定义Skill [43][45] - **年度AI设计产品为Lovart**,该产品是首个设计类垂直Agent,专为设计场景优化,集成了文字编辑、Touch Edit、Mockup等功能,并经常首发最新的绘图和视频模型 [46][47][48] - **年度AI功能为ChatGPT DeepResearch**,该功能可将查找资料的效率提升百倍千倍,能在10到30分钟内搜索全网数据并生成一篇深度研究报告,质量不亚于研究员工作10小时到1周的成果 [49][50][51] - **年度AI应用为Manus**,该应用作为第一个通用Agent,开启了Agent时代,将Agent概念向前推进了一大步,并于2025年被Meta以数十亿美金的价格收购 [55][60][61][62] - **年度AI硬件为Plaude Note Pro**,该硬件开创了能贴在手机背后的AI硬件新品类,具备录音、实时转录、自动总结会议要点等功能,并以百万销量证明了市场需求的真实性 [65][66][68][72]
从谷歌AI体系看应用叙事
2025-12-29 09:04
涉及的行业与公司 * **公司**:谷歌(Alphabet)、OpenAI、Anthropic、阿里、百度、字节跳动、Deepseek、三星、Perplexity * **行业**:人工智能(AI)、大模型、云计算、搜索引擎、消费电子、企业服务、互联网 核心观点与论据 谷歌AI模型的技术优势与进展 * **Gemini 3.0 Pro在多模态与长上下文领先**:支持文本、图片、音频、视频及PDF,上下文窗口达100万token,超越GPT 5.1的40万token和Claude 4.5的20万token,通过动态调整计算资源实现更拟人的慢思考效果[1][2][3] * **视频生成模型VO系列实现音画同步与精确调控**:VO 3.0是首个实现声音和画面原生同步直出的头部模型,VO 3.1新增对已生成视频的精确调控功能,单价为每秒0.4美元,与Sora R接近,分辨率达720P-1,080P[1][4] * **图像生成模型NanoBanana具备实时知识与精细操控**:基于Gemini开发,调用谷歌搜索接入真实世界知识,通过思维链机制理解提示词,具备高分辨率、文字渲染准确、图片精细操控等优势[1][7] * **用户使用时长反超ChatGPT**:截至2025年10月,Gemini APP和网页端单用户单次使用时长达到7.2分钟,超越ChatGPT的6分钟,下载量从年中每月1,500万次增至10月份6,600万次[1][5] 谷歌AI驱动的业务增长与市场布局 * **AI成为核心业务增长新动力**:2025年第三季度谷歌总营收1,023亿美元,其中搜索收入565亿美元,AI overview和AI mode提升了广告变现效率,云业务新增客户数同比增长34%[2][11] * **C端应用场景示范效应显著**:Google Search的AI模式日活人数超过7,500万,内置的AI Overview功能月活用户数超过20亿,大幅提升整体搜索收入[14] * **B端企业服务与硬件生态全面布局**:通过Vertex AI平台提供企业级解决方案,合同金额达1,550亿美元,付费企业用户数突破100万,在安卓生态(如安卓16)和C端硬件(手机、手表)中深度集成AI功能[10][12][14][16][18][23] * **深入垂直行业与合作伙伴**:将客户分为11个主要行业,吸引头部客户,例如三星Galaxy手机部署了Gemini和Imagen模型,三星家庭伴侣机器人也接入了谷歌AI[19][20] 全球及中国AI市场动态 * **AI搜索市场快速增长**:2025年,AI浏览器Perplexity访问量近乎翻倍,国内AI搜索用户量约5亿,日查询需求约20亿次,由阿里夸克、百度AI搜索等主导[2][15] * **国内大模型企业市场爆发**:2025年上半年,国内大模型企业市场总Token使用量日均达10.2万亿,同比增长超三倍,阿里通义、字节豆包及Deepseek调用最多,主要来自互联网和金融行业[2][21] * **国产大模型紧跟迭代,应用场景深化**:国产模型在思考深度、多模态处理及编程性能方面不断迭代,企业应用场景从智能问答(32%)转向价值更高的内容创作与客户服务等领域[22] * **操作系统层面AI化改造成为趋势**:谷歌在安卓16中内置大量Gemini AI功能,字节跳动的豆包手机也在操作系统层面进行了大量AI化改造[16][17] 其他重要内容 * **谷歌AI体系架构**:分为云计算、大模型及原生AI应用三大部分,核心研发部门是DeepMind人工实验室[10][12] * **模型收费与成本**:NanoBanana Pro按Token收费,每百万Token定价120美元,高于Gemini 3.0 Pro文本输出价格,每张图片平均消耗1,200至2000个Token[9] * **技术路径差异**:NanoBanana Pro采用多模态架构和思维链机制模拟物理世界,而GPT-4O基于统计相关性拼接像素图片[8] * **投资方向启示**:基于谷歌示范,创意领域多模态模型、C端硬件AI化、B端企业强付费意愿的AI应用被视为具有较大发展机会的方向[24]
罗福莉执掌小米大模型首秀!定调下一代模型,全新MiMo-V2开源还横扫Agent第一梯队
AI前线· 2025-12-17 16:00
小米大模型战略与MiMo-V2-Flash发布 - 小米在2025年合作伙伴大会上,由新任命的大模型负责人罗福莉首次公开亮相,并发布了新一代开源大模型MiMo-V2-Flash [2][3][4] - 该模型采用MoE(混合专家)架构,总参数规模达3090亿,但每次推理仅激活约150亿参数,旨在实现高速、高频、低成本的推理 [8] - 模型设计目标明确为“要跑得快、跑得久、被高频调用也跑得起”,核心是为Agent(智能体)和真实世界应用场景服务 [8][16] 技术负责人背景 - 大模型负责人罗福莉是行业知名AI技术专家,硕士毕业于北大,曾任职于阿里巴巴达摩院和DeepSeek母公司幻方量化,参与研发DeepSeek-V2等模型 [11][12] - 她于2024年11月加入小米,此次演讲是其入职后的首次公开亮相 [13] 模型设计理念与工程逻辑 - 公司认为当前大语言模型本质上是解码了人类思维在文本空间中的投影,而非真正理解物理世界,因此语言是工具而非终点 [19][20][35] - MiMo-V2-Flash的设计目标不是追求“更聪明”,而是“更好用、更可部署”,其技术选择是被Agent场景需求“倒逼”出来的工程取舍 [21][22] - 模型研发主要围绕三大现实挑战展开:智能体需要高效的代码与工具调用沟通语言、智能体间交互带宽低要求极高推理效率、大模型范式正从预训练转向后训练和强化学习 [25][41] 核心技术特点与性能 - 模型采用Hybrid Attention混合注意力结构(Sliding Window Attention与Full Attention比例约5:1),以兼顾长短文本推理并适配现有推理基础设施 [45] - 深入挖掘多词元预测技术潜力,在预训练和微调阶段引入MTP层以提升模型潜能,在推理阶段使用三层MTP并行,实现约2到2.6倍的推理加速 [24][46][47] - 在单机环境下,模型输出吞吐可达5000到15000 token/s,单请求输出速度达150 token/s,相比不使用MTP速度提升约2-3倍 [24][47] - 在后训练阶段,公司提出了Multi-Teacher On-Policy Distillation范式,以高效、稳定地将多个专家模型能力蒸馏到学生模型中 [47][50] 模型性能对比与评测结果 - 在7项主流评测中,MiMo-V2-Flash在Agent、代码、工具调用和复杂任务执行方面已进入全球开源模型第一梯队,整体表现与DeepSeek-V3.2、Kimi-K2-Thinking基本相当 [27][40] - 在SWE-Bench基准测试中,MiMo-V2-Flash在多语言模式下以71.7%的准确率获得一项第一 [28] - 在推理效率对比上,MiMo-V2-Flash的推理成本略低于DeepSeek-V3.2,但推理速度约为后者的三倍;与综合能力相近的Gemini 2.5 Pro相比,推理速度接近,但成本低约20倍 [40][48] 对AGI发展的观点与未来方向 - 公司认为当前大模型虽能完成复杂任务,但缺乏对物理一致性、时空连续性及因果关系的理解,这是“具身幻觉”的根源 [30][52] - 真正的下一代智能体需从“回答问题”转向“完成任务”,并具备与世界交互的能力,其核心是构建一个统一、动态的世界模型,而非仅增加多模态输入 [31][32][52][53] - 智能不是从文本中“读出来”,而是要在与真实环境的持续交互中“活出来”,AI进化的下一个关键点是发展能够持续交互的物理模型 [33][52] - 公司对开源持积极态度,视其为一种分布式的技术加速机制,是缩短开源与闭源差距、推动AGI普惠化的现实路径 [33] 模型发布与生态 - MiMo-V2-Flash已正式发布并开源,同步开放了模型权重、技术报告和API,方便开发者接入Web Coding、IDE等场景,体验网页也已上线 [50]
华尔街彻夜难眠,Gemini 3屠榜金融“最难考试”,AI砸了“金饭碗”?
36氪· 2025-12-15 19:58
AI模型在CFA考试中的表现 - 当前领先的AI推理模型已能轻松通过CFA全部三个级别的考试,部分科目成绩接近满分 [1][3][15] - 在一级考试(多选题)中,Gemini 3.0 Pro创造了97.6%的历史最高准确率 [3][22][23] - 在二级考试(案例选择题)中,GPT-5以94.3%的准确率领先 [3][22][24] - 在三级考试中,Gemini 2.5 Pro在选择题部分取得86.4%的最高分,而Gemini 3.0 Pro在问答题部分达到92.0%的优异成绩 [3][24][25] - 研究测试了包含980道题目的模拟题库,涵盖CFA三个等级 [16] - 与2023年相比,AI能力实现巨大飞跃,当时最强模型也无法通过三级考试的论述题 [7][27] 主要参与模型及其排名 - 根据测试排名,Gemini 3.0 Pro位列第一,在各级考试中均表现优异 [2][21] - GPT-5、Gemini 2.5 Pro、Grok 4、Claude Opus 4.1和DeepSeek-V3.1也均通过了所有级别考核 [2][21] - 较早的模型如ChatGPT和GPT-4在部分级别考试中未能通过 [2][22] - 研究团队对23个大语言模型进行了测试,以评估其处理专业金融分析推理的能力 [10] 技术方法与评估细节 - 模型在运用「思维链」(chain-of-thought)提示词技术后,成功通关三级考试 [12] - 对于开放式问答题的评分,研究使用了o4-mini模型进行自动化批改,但承认这可能引入测量误差和「篇幅偏见」 [25] - 测试沿用了CFA官方的历史合格标准:一级要求总分不低于70%,二级不低于60%,三级选择题和论述题平均得分率至少达到63% [25] - 三级考试核心考察投资组合管理和财富规划,涉及资产配置、衍生品与风险管理等多个主题 [10][11] 行业影响与专家观点 - 业内专家指出,AI推理模型的专业能力已超越初级至中级金融分析师的要求,未来可能达到资深分析师水准 [26] - 有观点认为,AI擅长处理界定清晰的知识体系和标准化考试,但通过考试不等于能胜任金融分析师的日常琐碎工作和复杂决策 [28][29] - 模型在「道德与职业标准」类题目上表现相对较弱,在二级考试的相关题目中,最强模型也有17%到21%的相对错误率 [24][28] - 技术被视为工具,如同历史上从计算器到Python的进步,关键在于在合理边界内利用AI提升效率,将人力解放至更具战略性的工作中 [34][37] - 卓越的投资业绩依赖于捕捉市场忽视的信息和批判性思考,这超出了标准化考试的范围,因此AI短期内无法完全取代投资专家 [38]
实测 GPT-5.2 :价格暴涨能力微涨,凭什么反击 Gemini
36氪· 2025-12-12 18:03
模型发布与市场定位 - OpenAI正式向所有用户推出GPT-5.2,旨在与谷歌的Gemini竞争 [1] - 本次更新包含三个模型:GPT-5.2 Instant、Thinking以及Pro模型 [4] - 在LMArena的大模型竞技场中,GPT-5.2-High在WebDev(网页开发)项目中排名第二,GPT-5.2排名第六,作为对比,Gemini 3.0 Pro排名第三,第一是Claude [9] 性能与能力升级 - 推理能力显著增强,GPT-5.2 Pro非常适合执行需要长时间完成的专业推理任务,但生成结果的等待时间变长 [4] - 知识截止日期更新至2025年8月,优于GPT-5.1的2024年9月和Gemini 3.0的2025年1月 [7] - 视觉能力提升,官方称GPT-5.2 Thinking是其最强大的视觉模型,在图表推理和软件界面理解方面的错误率降低了大约一半 [22] - 在多模态理解和编程开发上表现突出,能够完成复杂的3D建模工作,例如构建交互式3D雪天冰块王国模型和哥特城市建筑 [9][10] - 在专门的网页设计能力榜单上,GPT-5.2从十名开外跃升至第三名,但得分最高的仍是Gemini 3.0 Pro [34] - 长文本创作能力有所突破,能够尝试构建长篇小说的结构和生成PDF文件,尽管内容质量尚不完善 [38] 用户体验与实测反馈 - 用户普遍反馈GPT-5.2 Pro在处理复杂任务时思考速度变慢,例如有用户报告生成一张HLE测试成绩图表花费了24分钟 [4] - 在编程能力测试中,例如编写模拟交通灯的Python代码,GPT-5.2 Extended Thinking的表现被认为不及Claude Opus 4.5 [20] - 在图像标注等特定任务上,虽然GPT-5.2比前代标注了更多信息,但其准确性被认为不及Nano Banana Pro [24] - 在网页设计审美上,GPT-5.2生成的设计被指频繁使用方框网格和渐变紫色调,风格突破有限 [33][36][39] - 在复刻网页等任务中,GPT-5.2能够更好地理解上传视频的配色方案,但其生成的网页尚不能像Gemini那样直接集成AI功能 [19] 定价与市场竞争 - GPT-5.2的价格相比GPT-5.1整体上涨约40% [21] - GPT-5.2 Pro的定价为输入每百万Token 21美元,输出每百万Token 168美元 [21] - 竞争对手谷歌Gemini持续施加压力,其新发布的深度研究Agent在HLE考试中以46.4%的准确率击败了GPT-5.2 Thinking的45.5% [43]
DeepSeek V3到V3.2的进化之路,一文看全
机器之心· 2025-12-08 12:27
DeepSeek模型系列技术演进 - 公司于2024年12月发布DeepSeek V3基础模型,随后推出基于相同架构的专用推理模型DeepSeek R1,使其成为最受欢迎的开放权重模型之一,成为OpenAI、Google、xAI和Anthropic等公司专有模型的有力替代方案[11] - 从DeepSeek V3到V3.2的演进过程中,公司模型策略从专用推理模型转向混合模型,V3.1和V3.2均为兼具通用聊天和推理能力的混合模型,而R1可能更多是作为研究项目或测试平台[25] - 公司于2025年9月发布实验性模型DeepSeek V3.2-Exp,旨在为更大规模的发布准备生态系统和推理基础设施,该模型引入了非标准的稀疏注意力变体,需要定制代码[17][18] - 2025年12月1日,公司发布新旗舰模型DeepSeek V3.2和DeepSeek V3.2-Speciale,与当前专有旗舰模型相比表现非常出色[5][103] 核心架构创新:注意力机制与效率提升 - DeepSeek V3基础模型采用了混合专家模型和多头潜在注意力架构,MLA通过在将键和值张量存储到KV缓存前将其压缩到低维空间来节省内存,虽然增加了一次额外的矩阵乘法,但显著减少了内存使用[29][31][32] - DeepSeek V3.2-Exp及V3.2的主要架构创新是DeepSeek稀疏注意力,该机制由Lightning Indexer和Token选择器组成,基于学习到的相关性分数选择性地关注部分过去的Token,而非所有Token或固定局部窗口[49][50][54][58][59] - DSA将注意力机制的计算复杂度从二次的O(L²)降低到了线性的O(Lk),其中L是序列长度,k是选定Token的数量,在减少性能衰减的同时实现了效率提升[66][67][68] - DeepSeek V3.2使用了与DeepSeek V3.2-Exp完全相同的架构,集成了MLA和DSA机制,主要动机是提高整体模型性能的同时,将计算效率视为巨大驱动因素[107][110] 训练方法演进:从RLVR到自我验证 - DeepSeek R1专注于“带可验证奖励的强化学习”方法以提高推理能力,其核心思想是让模型从可以进行符号化或编程验证的响应中学习,例如数学和代码[37][38] - RLVR流程使用了GRPO算法,这是“近端策略优化”算法的一个简化变体,GRPO取消了评论家模型,而带GRPO的RLVR进一步移除了奖励模型,转而依赖来自符号工具的可验证奖励[40][42] - 为改善常规RLVR的缺点,公司在DeepSeekMath V2中引入了自我验证与自我修正技术,开发了基于LLM的验证器和元验证器来对证明生成器的输出进行评分和检查,使验证器证明分析的平均质量得分从0.85提高到了0.96[76][77][83][86][89][90] - 在推理期间,公司使用单一模型同时执行证明生成和验证,这比运行第二个LLM进行证明验证增加了更少的复杂性和计算需求,通过多达8次的自我修正迭代,模型的准确性得到提高且尚未饱和[98][99][102] DeepSeek V3.2的具体训练改进 - DeepSeek V3.2采用了类似于DeepSeek R1的RLVR程序,但更新了奖励机制,对于推理和智能体任务采用基于规则的结果奖励、长度惩罚和语言一致性奖励,对于通用任务则采用生成式奖励模型[115][116] - 对于数学领域,公司整合了来自DeepSeekMath-V2的数据集和奖励方法[117] - 在GRPO算法本身,公司进行了一系列稳定性更新,包括:零梯度信号过滤、主动采样、Token级损失、无KL损失、更高裁剪阈值、截断重要性采样、无标准差归一化、特定领域的KL强度、无偏KL估计、异策略序列掩码、保留MoE模型的路由、保留top-p/top-k的采样掩码以及保留原始GRPO优势归一化[119][120][122] - DeepSeek V3.2-Speciale是V3.2的扩展思维变体,其在RL阶段仅在推理数据上进行训练,并减少了长度惩罚以允许模型输出更长的响应,这种推理扩展形式以生成长度增加为代价获得更好的结果[123][124] 模型性能表现 - DeepSeek V3.2在多项基准测试中与专有旗舰模型相比表现非常出色,在数学基准测试中获得了金牌级的表现,同时在训练时也考虑到了工具的使用,在其他任务上也表现良好[103][107] - 扩展思维变体DeepSeek V3.2-Speciale在多个基准测试中实现了更高的准确性,例如在AIME 2025基准上达到96.0,在HMMT Feb 2025基准上达到99.2,但同时也生成了更多的Token[127]
开源和闭源模型的差距在拉大:这是DeepSeek论文揭示的残酷真相
36氪· 2025-12-06 08:03
行业核心观点 - 开源大模型与闭源模型的性能差距正在扩大,而非缩小,尤其是在复杂任务上闭源系统展现出越来越强的优势 [1][2] 性能差距现状 - 在MMLU-Pro测试中,DeepSeek V3.2得分85.0,低于GPT-5的87.5和Gemini 3.0 Pro的90.1 [2] - 在GPQA Diamond测试中,DeepSeek V3.2得分82.4,低于GPT-5的85.7和Gemini 3.0 Pro的91.9 [2] - 在HLE测试中,差距尤为明显:DeepSeek V3.2得分25.1,GPT-5得分26.3,而Gemini 3.0 Pro高达37.7 [3] - 尽管DeepSeek V3.2是当前最强的开源模型,但在需要深度推理和复杂任务处理的场景中,与顶级闭源模型仍存在明显差距 [4] 开源模型的结构性困境 - **架构限制**:开源模型普遍依赖传统的vanilla attention机制,该机制在处理长序列时效率极低,严重限制了可扩展部署和有效的后训练 [5][6] - **资源投入鸿沟**:后训练是关键环节,但大部分开源模型的后训练预算可能连预训练成本的1%都不到,而DeepSeek V3.2的后训练计算预算超过了预训练成本的10% [7] - **AI Agent能力滞后**:在真实应用场景中,开源模型的泛化能力和指令理解能力明显落后,阻碍了实际部署的有效性 [8] - 具体表现为:在MCP-Mark中,DeepSeek V3.2得分45.9,低于Gemini 3.0 Pro的51.0;在MCP-Universe中,前者为80.3,后者为87.9;在Tool-Decathlon中差距更明显 [8] DeepSeek的技术创新与应对策略 - **架构革新**:引入DSA机制,通过“闪电索引器”选择top-k个最重要的token参与计算,将计算复杂度从O(L²)降至O(L×k),其中k=2048 [10] - 在128K上下文长度下,DSA大幅降低了推理成本且性能几乎无损,在AA-LCR和Fiction.liveBench等测试中表现甚至优于使用传统注意力的前代模型 [10] - **超常规资源投入**:持续强化学习训练预算已超过预训练成本的10%,为数学、编程、推理、Agent等六大领域分别训练专家模型 [12] - 在持续预训练阶段,模型经历了943.7B tokens的训练,并采用GRPO算法进行混合训练,整合推理、Agent和人类对齐任务 [12] - **系统化强化Agent能力**:开发了系统化的任务合成流程,合成了超过1800个多样化环境和85,000条复杂提示,涵盖24,667个代码Agent任务、50,275个搜索Agent任务、4,417个通用Agent任务和5,908个代码解释器任务 [13] - 效果显著:在MCP-Universe上达到80.3%的成功率,虽低于Gemini 3.0 Pro的87.9%,但已是开源模型最佳表现,显著缩小了与闭源模型的差距 [13] 行业启示与路径 - 开源AI的生存之道在于技术路线创新,而非硬碰硬拼资源 [14] - DeepSeek V3.2证明了通过更高效的架构和更科学的后训练,可以用更少的资源实现接近闭源模型的效果 [13][14] - 如果Gemini 3.0证明了持续扩展预训练的潜力,DeepSeek V3.2则证明了在大规模上下文环境中强化学习的可扩展性 [13]
“大交易”:一场迟到的美国AI战略自救
观察者网· 2025-12-04 08:28
美国AI“大交易”战略构想 - 前白宫AI顾问本·布坎南提出“大交易”设想,核心是科技行业与政府达成战略协议:科技行业获得能源、人才和国家安全保护,政府则将AI整合进国防体系并确保其符合民主价值 [1] 对华芯片政策分歧与失效 - 美国对华芯片政策存在“技术依赖派”与“全面遏制派”的根本分歧 [2] - “技术依赖派”主张让中国大陆AI生态系统建立在美国技术基础上形成战略性依赖,类似英伟达曾推出H800、H20等降级版芯片以维持市场 [4] - “全面遏制派”主张实施最严格封锁,禁止中国大陆获取先进算力,2022年10月拜登政府大幅扩展了芯片、制造设备及人才支持的限制 [5] - DeepSeek发布V3.2模型,在开源模型中达到全球最高水平,与海外顶级闭源模型差距缩小至约一个季度,其普通版对标GPT-5,特别版媲美Gemini 3.0 Pro,证明两种对华芯片策略可能均已失效 [1][5] - 封锁催生“设计出去”效应,例如华为用麒麟9000s芯片替代高通,导致高通2024年损失6000万套芯片销售,长期将永久性侵蚀美国在全球半导体生态中的地位 [6] 能源基础设施的政治困境 - 美国AI产业面临巨大能源需求,到2028年仅新增电力需求就将达到500亿瓦,相当于整个阿根廷的用电量,数据中心可能消耗美国电力产量的12% [7] - 相比之下,中国大陆每年新增电力容量达12%,而美国在2005至2020年间几乎没有新增净电力 [7] - 美国能源基础设施建设陷入政治死结,任何大规模电厂或输电项目都面临环保团体、地方社区和监管机构的长期阻挠,导致项目审批可能耗时十年以上 [7] - 加州电网常因峰值负荷陷入危机,但新建输电线路项目同样受困于环保和土地纠纷 [7] - 特朗普政府曾宣布5000亿美元的Stargate项目,但基于其第一任期基础设施投资承诺的落地情况,此类宏大承诺可信度存疑 [8] - 中国大陆的政治体制能够快速调动资源实施大规模基础设施建设,这是治理模式的差异 [9] 人才政策的矛盾与挑战 - 美国AI研究严重依赖国际人才,70%的顶级在美AI研究人员出生在国外,65%的领先美国AI公司至少有一位移民联合创始人 [10] - 当前政治氛围与维持人才流入的目标相悖,例如特朗普政府计划将H-1B签证费用提高到10万美元,并收紧国际学生政策,可能导致2025年国际学生入学率下降30%-40% [10] - 民粹主义情绪使得引进外国AI人才的政策面临政治反弹,被解读为“让外国人来抢美国人的工作” [10] - 将AI深度整合进国家安全体系与保持人才开放性存在内在矛盾,严格的背景审查可能排除大量来自对手国家的研究人员 [11] - 美国收紧的移民政策和政治化的科研环境,可能加速中国大陆AI专家回流 [13] 政府与科技行业合作的障碍 - 科技行业与政府之间存在深刻互不信任,科技公司认为政府意味着繁琐监管和缓慢决策,担心合作会限制商业自由和全球市场机会 [14] - 政府对科技公司的可靠性和对国家利益的服从度深表怀疑,科技公司员工曾抗议与军方合作,例如2018年谷歌员工迫使公司退出国防部Maven项目 [14] - 拜登的AI行政命令要求科技公司自愿做出安全承诺,但大多缺乏强制约束力,而政府试图加强监管时又会遭遇科技公司的强力游说 [15] - 双方在AI开放程度、控制权、收益分配及技术出口等核心问题上存在严重分歧,难以达成全面战略协议 [15] 战略实施的时间错配与政治不稳定性 - AI技术演进以月为单位,而美国政治体制变革以年甚至十年为单位,存在根本性时间错配 [16] - 政治周期的不稳定性使得长期战略难以为继,一个政府建立的政策框架可能被下一届政府全盘推翻,例如特朗普政府正在拆除拜登时期的AI治理框架并放松芯片出口管制 [16][20] - 中国大陆的体制优势在于政策的连续性和长期性,能够持续数十年稳定投入资源 [17] - “大交易”本质是防御性战略,旨在“防止失去领先地位”而非“创造新的突破”,反映了一种焦虑心态 [17] - 中国大陆的AI战略更注重建立自主创新能力和独立技术生态,如DeepSeek的成功所示 [18] 社会分裂与结构性裂痕 - 美国社会在AI问题上深度分裂:技术精英视其为增长引擎,普通民众担心失业,环保主义者反对资源消耗,民族主义者要求限制移民,国际主义者强调开放合作 [19] - 政府与科技公司之间的不信任是结构性的,关系脆弱 [19] - 美中竞争是长期全方位的,在需要国家动员和长期规划的技术竞争阶段,美国的制度优势可能成为劣势 [19] - “大交易”的实现需要高度共识、长期承诺、政府效率和超党派合作,这些条件在当前美国政治现实中几乎不存在 [20]
市场整固后有望延续反弹,科技修复仍有空间
海通国际证券· 2025-11-30 21:03
核心观点 - 市场在整固后有望延续反弹行情,科技板块的修复仍有空间 [1] - 外围流动性持续改善,为风险资产反弹提供支撑 [2] - 科技板块情绪回暖,成交占比提升,但部分指数修复幅度仍落后 [3] - 房地产市场出现企稳迹象,政策支持有望改善行业流动性 [4] - 市场处于缩量蓄势阶段,资金面显示杠杆资金重新流入 [5] 外围市场与流动性 - 美国9月零售销售放缓、PPI低于预期,12月降息概率回升至86% [2] - 美元指数回落至99.4,人民币汇率升至7.07 [2] - 比特币反弹至9.15万美元,黄金重返4200美元之上,10年期美债收益率下行至4.01% [2] 科技板块表现 - 谷歌新产品Gemini 3.0 Pro、Nano Banana反馈向好,Meta可能斥资数十亿美元采购谷歌TPU,Anthropic有高达1GW规模的TPU采购大单 [3] - 谷歌股价本周上涨7%,英伟达全周仅下跌约1%,其他AI相关标的普遍反弹 [3] - 港股与A股科技板块明显反弹但尚未完全收复上周跌幅,创业板反弹更强已收复大部分跌幅,恒生科技和科创50仅收复约一半跌幅 [3] - A股TMT板块成交占比由32%回升至36%,恒生科技指数成交额占比均值上行至30% [3] - 沪深主要指数完成季度调仓,新增多只科技标的,科技权重提升,调整将于12月12日收市后生效 [3] 房地产市场动态 - 万科因投资者担忧其即将到期巨额债务,相关债券大幅下跌,部分债券价格分布在30–62元区间 [4] - AH房地产板块整体收涨,显示板块正在企稳,市场对万科利空的敏感度逐步下降 [4] - 证监会发布商业不动产REITs试点公告,旨在改善商业不动产行业流动性、盘活存量房地产资产 [4] 市场成交与资金流向 - 市场缩量反弹,A股成交缩至1.6万亿元,港股缩至1500亿元,处于下一阶段行情的蓄势期 [5] - 港股卖空交易占比大幅回落至均值下方的12% [5] - 股票型ETF(剔除规模型)本周前四日逆势流出124亿元,结束11月以来的持续流入趋势,但11月累计仍实现300亿元净流入 [5] - 两融资金上周大幅流出313亿元,本周转为净流入106亿元,市场重新进入加杠杆阶段 [5] - 南向资金本周净流入降至200亿港元,资金延续流入互联网趋势但暂停流入科技硬件,能源股转为流出 [5] - 个股方面,阿里巴巴净流入继续扩大至132亿港元;小米净流入回落至4亿港元;中芯国际转为净流出20亿港元;泡泡玛特净流入升至19亿港元 [5] 投资机会展望 - 海外链科技股本周涨幅较大,后续建议关注回调充分的恒生科技以及以国产算力为代表的科创板的轮动机会 [6] - 市场缩量较为极值,若后续放量,年内涨幅偏小的券商板块有望接替银行成为新的稳定器 [6] - 房地产板块开始企稳回升,建议关注基本面较好、今年拿地较多的龙头房企的超跌反弹机会 [6]