Workflow
开源模型
icon
搜索文档
8点1氪:张雪峰医疗文件疑似泄露,苏州卫生健康委回应;黄仁勋谈死亡:希望在工作中突然离世;OpenAI将停止Sora视频生成服务,精简产品线
36氪· 2026-03-26 12:35
科技与人工智能 - OpenAI计划停止Sora独立视频生成应用以精简产品线[5],公司已完成下一代主力AI大模型“Spud”的初步开发,CEO调整职责以专注于融资与基础设施建设[20] - ChatGPT将升级“智能体商业协议”,用户可直接在聊天界面内比价并购买商品,覆盖全量用户群体[18] - 苹果公司正测试独立Siri应用及“Ask Siri”新功能,计划在6月全球开发者大会上作为操作系统更新的一部分发布[19] - 谷歌DeepMind与德国Agile Robots合作,进一步涉足AI驱动的机器人领域[18] - 字节跳动豆包大模型日均调用量已超过100万亿Tokens[18] - 月之暗面创始人杨植麟表示,以Kimi K2.5为代表的开源模型正成为新标准,未来AI将更大程度主导研究进程[19] - 阿里云宣布全面开放JVS Claw,所有用户无需邀请码即可获得云端“龙虾”,并带来多项核心功能升级[17] - 三菱电机投资日本人工智能初创公司Sakana AI,以拓展其数字平台业务[20] - 国家超算互联网启动新一轮词元赠送活动,面向全体用户限时免费发放单人最高3000万Tokens额度,特惠续用价0.1元/百万Tokens延至4月6日[6] 半导体与硬件 - 存储芯片超级景气周期延续,涨价潮席卷消费电子全产业链,小米总裁卢伟冰称内存涨价速度和力度超预期,影响所有消费电子行业[13] - 英特尔和AMD告知客户上调3月和4月CPU价格[14] - SK海力士已向美国证监会秘密提交文件,计划今年在美发行美国存托凭证,此前媒体报道称其考虑筹集100.3亿美元以扩大先进存储芯片产能[15] - 英伟达CEO黄仁勋在访谈中罕见谈及对死亡的看法,表示希望未来能在工作中突然离世[5] - 美股Arm股价上涨超过16%[12] 消费电子与互联网 - 废旧手机回收市场行情明显升温,整体价格已涨至三倍左右,国产机废板回收价可达150元以上,部分机型达370元,而苹果废板回收价在20至80元左右[9] - 快手2025年第四季度总收入同比增长11.8%至396亿元,全年总收入同比增长12.5%至1428亿元,全年经调整净利润达206亿元[22] - 知乎2025年全年营收27.5亿元,首次实现全年Non-GAAP盈利,经调整净利润为3790万元[24] - 拼多多2025年第四季度营收1239.1亿元[25],公司正式宣布组建“新拼姆”,未来三年投入1000亿元现金开启品牌自营,一期已现金注资150亿元[10] - 泡泡玛特2025年营收371.2亿元,同比增长184.7%,拥有人应占溢利127.75亿元,同比增长308.8%,LABUBU家族营收首次突破100亿元[23],公司将在下半年推出LABUBU 4.0系列[9] - 前程无忧发布2026年春招趋势:毕业生求稳加剧,计划进入体制内的比例达25.1%,较上届上升2.6个百分点,“慢就业”现象升温,占比10.3%[11] 新能源汽车与智能驾驶 - 特斯拉Optimus机器人最新视频曝光,马斯克称Optimus 3有望在今年夏季启动生产,并有望在2027年实现大规模量产[14] - 智能驾驶解决方案供应商Momenta已向港交所秘密递交招股书,IPO估值预期超千亿元,计划2026年内在港交所挂牌[17] - 埃安N60正式开启盲订,定位“智美都市SUV”,全系标配4D毫米波雷达与激光雷达,采用L4级同源算法,定位15万内市场[31] - 问界M6、尚界Z7、尚界Z7T开启预订,问界M6增程版预售价26.98万元起,纯电版28.98万元起[32] 消费与零售 - 品牌金饰价格大幅上涨,周生生足金饰品报价1418元/克,较前一日上涨68元,周大福、周大生报价1408元/克,较前一日上涨66元/克[6] - 胖东来创始人于东来在2026联商超市周总裁峰会上,因认为门票价格过高,宣布对参会者每人退款3000元,该峰会收费标准为会员6980元/人、非会员8980元/人[6] - 安踏体育2025年实现收入802.19亿元,同比增长13.3%,股东应占溢利135.88亿元,同比增长13.9%[26] - “中园石化”加油站因品牌标识酷似“中国石化”被立案调查,加油站负责人称已开始整改拆除相关字样[10] - 黄天鹅就鸡蛋角黄素抽检结果发布声明,称三地监管部门抽检及企业自检结果均为未检出角黄素[13] 金融与宏观经济 - 多家银行发布贵金属市场风险提示公告,称当前贵金属价格波动剧烈,市场不确定性显著上升[7][8] - 中国人民银行于2026年3月25日开展785亿元7天期逆回购操作,操作利率1.40%[8] - 美联储理事巴尔表示,政策制定者可能需要在“一段时间内”维持利率不变,以应对高于目标的通胀[14] 医疗健康与生物科技 - 迈威(上海)生物科技股份有限公司向港交所提交上市申请书[15] - 剂泰科技(北京)股份有限公司提交港股上市申请书[16] - “傲意科技”完成C1轮1.5亿元融资,资金将用于加速“脑机接口”与“具身智能”领域的技术攻关与产业化落地[28] 企业动态与融资 - 工业具身智能企业“光象科技”完成多轮融资,累计金额超1亿元人民币[27] - 国内空间智能企业“飞渡科技”完成新一轮战略融资,并推出全球首款“感知-理解-仿真-决策”全闭环空间智能模型[29] - 高端工业激光装备制造商“中微精仪”完成数千万元天使轮融资[30] - Meta推出新高管激励计划,目标是在2031年前使公司市值突破9万亿美元,较当前1.5万亿美元市值增长500%[21] - 飞猪发布首个全品类出行旅游技能插件“flyai”,已上线多个“龙虾”应用平台[20]
英伟达CEO黄仁勋:AGI时代已经到来,“龙虾开公司”不是梦;腾讯元宝派推出电脑版丨AIGC日报
创业邦· 2026-03-26 08:55
腾讯AI产品动态 - 腾讯旗下AI原生应用“元宝”正式推出“元宝派”电脑版,支持用户在电脑大屏环境中边参与共享屏幕边在单独窗口聊天互动 [2] - 元宝派电脑版支持多端消息同步、文件拖拽、截图等功能,旨在帮助用户在电脑端完成信息流转 [2] 行业领袖对AI发展的观点 - 英伟达首席执行官黄仁勋表示,通用人工智能(AGI)时代已经到来,并认为由AI运营、市值十亿美元的公司是“可能的” [2] - 月之暗面创始人兼CEO杨植麟认为,以Kimi K2.5为代表的开源模型正在成为新的标准,硬件厂商需要通过开源模型评测集证明性能提升 [2] - 杨植麟指出,AI领域的研究方式正发生变化,未来AI将更大程度主导研究,研究员将配备大量token合成新任务及环境,AI将定义奖励函数并探索新网络架构,从而加速整个AI研发进程 [2] AI应用商业化进展 - 闲鱼正式发布新产品“闲鱼AI相机”,用户通过简单拍照即可在5秒内实现商品一键上架,AI还将对商品进行辅助定价 [2]
杨植麟讲如何scaled Kimi K2.5完整图文版/压缩版/视频版
理想TOP2· 2026-03-22 20:52
文章核心观点 - 公司致力于通过技术创新构建更优秀的开源模型,以实现智能的民主化,其核心策略是围绕“Scaling Law”从多个维度扩展模型能力,包括提升Token效率、扩展上下文长度以及引入智能体群范式 [8][9][13] - 公司最新发布的Kimi 2.5模型及下一代架构Attention Residue,通过Muon优化器、Kimi Linear架构、原生多模态融合等多项自研技术,在性能上实现了对现有主流架构和优化方法的全面超越,并展示了开源模型触及前沿的潜力 [4][70][72][87][111] 模型扩展的核心维度与技术 Token效率提升 - **核心原理**:Token效率不仅关乎基础设施成本,更决定了智能的上限,提高Token效率相当于在有限的高质量数据下获得更优的模型性能 [15][21] - **Muon优化器**:作为公司大力投资的二阶优化器,其梯度更新方式使每个条目彼此正交,相比传统Adam优化器能获得**两倍**的Token效率提升,例如将**50万亿**个高质量Token的效用提升至相当于**100万亿**个 [2][23][24] - **QK-Clip技术**:在向万亿参数规模扩展时,为解决训练中出现的logits爆炸问题,公司引入了QK-Clip技术,通过在前向传播中计算并限制每个注意力头的Query和Key投影最大值,确保了训练的稳定性 [2][30][34] - **实际效果**:在相同参数和训练Token数量下,使用Muon优化器替换AdamW,模型在MMLU、代码生成(HumanEval)、数学(GSM8K)等多个基准测试上性能显著提升,并成功扩展到万亿参数模型的训练 [27][28][35] 长上下文能力扩展 - **架构挑战**:原始线性注意力的全局单一衰减因子导致模型在长上下文处理中陷入“全盘保留或彻底遗忘”的困境,缺乏精准剔除冗余信息的能力 [3][44][45] - **Kimi Delta Attention**:通过将全局标量衰减因子升级为细粒度的对角矩阵,赋予每个通道独立的衰减控制权,允许特定通道长效留存关键信息而其他通道快速刷新,从而增强了模型的表达能力 [3][46][47] - **Kimi Linear架构**:以**1:3**的比例混合线性注意力层与全注意力层,并利用数学等价变换实现分块并行化计算,在不损失精度的前提下适配现代GPU算力,实现了对全注意力架构的全面超越,在短上下文和长上下文任务上均表现更优 [3][42][53][55][56] 智能体群(Agent Swarms)范式 - **范式原理**:为突破单智能体在复杂任务中串行执行时间和处理容量的瓶颈,智能体群范式借鉴人类社会分工,通过一个协调器将任务拆解并分配给多个并行工作的子智能体,在输入、输出和行动维度实现规模化扩展 [4][16][58] - **训练创新**:为克服训练中的串行崩溃与子任务作弊行为,引入了由实例化奖励、完成奖励和结果奖励构成的三位一体目标函数,有效引导系统学习并行、有意义的任务分解与执行 [4][67] - **性能优势**:与单智能体相比,智能体群能显著降低复杂任务的执行时间,并能扩展至由数百甚至数千个子智能体协同工作,以在可接受的时间内完成产生经济价值的复杂任务 [4][62][65] Kimi 2.5模型的关键创新 - **训练稳定性**:模型训练过程超过**15万亿**个Token(另有额外**15万亿**个Token的训练),全程非常稳定,没有损失尖峰,这得益于Muon等新技术的引入 [74] - **原生多模态融合**:Kimi 2.5是首个从预训练第一天起就将视觉与文本模态统一映射到共享嵌入空间和表示空间的开源模型,这种早期融合策略优于后期添加视觉能力的做法,催生了如“视觉到代码”等新兴能力 [4][77][78][79] - **模态相互增强**: - **视觉增强文本**:仅使用视觉任务进行强化学习后,模型在纯文本任务(如MMLU-Pro、GPQA-Diamond)上的性能也得到了提升,例如MMLU-Pro从**84.7**提升至**86.4** [80][81] - **文本增强视觉**:凭借强大的文本基础,模型在**不使用任何视觉SFT数据**,仅通过文本SFT与联合强化学习的情况下,在视觉问答等任务上实现了接近最先进的性能 [4][83][84] 下一代架构展望:Attention Residue - **设计灵感**:将时间维度(如LSTM)的成功经验平移至深度维度,将传统的固定加法形式的残差连接(被视为旋转了90度的LSTM)推广为旋转了90度的注意力机制 [4][93][94][95] - **核心机制**:通过聚合所有先前层的隐藏状态,并使用注意力机制来计算当前层的输出,而非仅依赖上一层输出 [4][98][99] - **效率优化**:采用块注意力残差方案,将网络层划分为多个块,在块内保留标准残差连接,仅在块间应用注意力残差,以平衡计算开销与性能 [4][100][101] - **预期收益**:该架构能将Token效率提升**24%**(例如,**50万亿**个高质量Token的效用提升至超过**60万亿**),并在验证损失和编码、数学等推理密集型任务上显示出改进 [4][103]
海外明星公司被曝套壳中国开源模型,负责人出面致歉
第一财经· 2026-03-21 21:45
事件概述 - 北京时间3月21日,围绕海外估值近300亿美元的明星公司Cursor是否套壳中国开源模型Kimi K2.5的讨论在网络端展开[3] - 事件起因是Cursor发布新模型Composer 2,官方强调为自研,未提及基座来源,但开发者通过模型ID发现其基于Kimi K2.5进行了强化学习微调[3] - 事件最终以Cursor团队致歉、Kimi官方表示祝贺并确认已建立授权商业合作而告终[8][9] 事件核心争议点 - Cursor发布的Composer 2模型,其模型ID显示为“kimi-k2p5-rl-0317-s515-fast”,表明该模型是在Kimi K2.5基座上做了强化学习微调[3] - Kimi K2.5采用附加商业条款的开源许可证,要求基于该模型的商业产品若月活超过1亿或月收入超过2000万美元,需显著标注模型来源[8] - Cursor已达到上述标准,但未按要求进行标注,引发了关于其是否遵守开源协议的争议[8] - Kimi预训练负责人确认,Composer 2模型使用的分词器与Kimi完全一致[5] - 月之暗面联创周昕宇发文表示,不记得Cursor有来申请授权[6] 相关方回应与事件进展 - 特斯拉CEO埃隆·马斯克在相关讨论评论区直接发文确认:“是的,是KimiK2.5。”[5] - Cursor教育开发者Lee Robinson发文致歉,承认Composer 2始于开源,并解释模型计算中只有四分之一来自基础模型,其余来自团队训练,未在一开始提及Kimi模型是一个失误[8] - Cursor创始人Aman Sanger表示,团队评估了大量基座模型,结果证明Kimi k2.5是最强的[8] - Kimi.ai官方账号最终发文祝贺Cursor团队,并很高兴看到KimiK2.5为其提供底层基座,模型通过Cursor的持续预训练与高算力强化学习训练得到有效集成[9] - Kimi官方确认,作为授权商业合作的一部分,Cursor已通过FireworksAI托管的平台访问Kimi-k2.5[9] - Kimi工作人员也删除了此前关于此事的吐槽内容[9] 行业影响与趋势分析 - 此次事件证明开源是行业最大竞争助力,也再次验证了中国开源模型将成为全球AI发展的最大力量[9] - 行业前沿的竞争重点,未来将不再是谁从零开始训练模型,而是谁能够最快适应、微调与实现产品化[9] - 中国开源模型在全球AI发展中扮演着愈来愈重的角色[9] - 全球大模型聚合路由平台OpenRouter数据显示,国产大模型周调用量已连续两周超过美国大模型产品,截至事件发生当周,中国开源模型调用量仍持续反超美国模型[9]
深度|马斯克连续点名、黄仁勋邀请:Kimi 正在成为硅谷“不可言说”的变量
Z Potentials· 2026-03-21 20:19
文章核心观点 - 中国AI初创公司月之暗面及其模型Kimi K2.5正从现象级产品演变为全球AI的“基建级能力” 其通过卓越的性价比和工程效率 在顶级基础设施、核心生产力工具及产业政策层面获得关键认可 正在改写全球AI叙事 挑战由硅谷巨头主导的封闭、重资本发展模式 [4][20][31] Kimi K2.5的行业地位与市场认可 - **成为全球基建平台的选择**:全球边缘计算巨头Cloudflare在其自动代码审查场景中选用Kimi K2.5 该场景每日处理超过70亿Token 与同级别头部闭源模型相比 年成本暴降77% 节省约240万美元 证明了其硬核的性价比优势 [9] - **深入核心生产力工具**:顶级编程工具Cursor的新一代模型Composer 2被开发者发现底层ID为kimi-k2p5 其联合创始人承认 在基于Perplexity的硬核指标上 Kimi K2.5是目前全球最强的底座 尽管引发“套壳”争议 但这成为了一次价值连城的背书 [12][13] - **获得产业与政策双重认证**:在NVIDIA GTC 2026上 月之暗面创始人杨植麟成为唯一受邀演讲的独立大模型创始人 分享模型扩展经验 同时英伟达CEO黄仁勋多次使用Kimi模型作为芯片性能测试基准 美国NIST旗下机构CAISI在评估报告中称Kimi为“中国能力最强的模型” 代表了中国AI产业的增长深度 [3][18] 公司的核心竞争力与估值逻辑 - **前沿探索与工程效率结合**:公司既通过《Attention Residuals》等论文挑战Transformer底层架构 展现前沿心气 又实现了极高的工程效率 走通了“小资源办大事”的路径 这构成了其估值护城河的核心 [24] - **资本市场的认可**:在行业讨论“模型寒冬”之际 公司新一轮融资目标估值已逼近180亿美元 资本看重的是其不仅停留在研发 更证明了能将模型变成一门跑得通的生意 [21][23][24] 中国AI对全球叙事的影响 - **挑战硅谷主导模式**:从DeepSeek到Kimi 中国AI公司证明了前沿模型的发展不必只依赖资源碾压和封闭路线 而是可以通过开放、高效、强调成本收益比的路径推进 这直接动摇了硅谷巨头“需要万亿美元构建AGI”的融资叙事 [28][29][30] - **输出新的产业逻辑**:中国AI输出的不仅是模型 更是一整套进入现实世界的新逻辑 即未来的前沿属于最高效、最先把能力变成基础设施的公司 [31][32] - **引发行业震动**:DeepSeek的出现曾导致英伟达单日蒸发约5930亿美元市值 创下华尔街单家公司史上最大单日市值损失纪录 并迫使OpenAI重新思考其开源战略 [26][27]
Cursor套壳Kimi被抓包记
机器之心· 2026-03-21 11:27
事件概述 - 明星AI编程创企Cursor发布新一代模型Composer 2,其在CursorBench基准上的性价比表现明显超过了Claude Opus 4.6 (high)以及GPT-5.4 (high) [1] - Composer 2发布后不到3小时,有网友发现其模型ID为“kimi-k2p5-rl-0317-s515-fast”,并推断Composer 2是经过强化学习的Kimi K2.5 [2] - 此事在AI社区引发高度关注,并产生大量讨论和梗图 [5][7] 核心争议与Cursor的回应 - 社区讨论焦点并非基于开源模型进行后训练这一常规操作,而是Cursor在介绍Composer 2时对来自中国的开源基础模型Kimi K2.5只字未提 [9] - 随着舆论在X与Hacker News等技术社区扩散,Cursor团队在压力下做出正面回应,承认Composer 2确实以Kimi K2.5为基础模型进行了针对性的强化学习与微调 [10] - Cursor联创Aman Sanger表示,最初未在博客中提及Kimi基础模型是一个疏忽,并会在下一款模型中解决此问题 [10] - Aman Sanger补充,基于困惑度的评估,Kimi K2.5是他们评估过的大量基础模型中最强的一个,并在此基础上进行了进一步的持续预训练和强化学习,计算规模扩大了4倍,最终得到Composer 2 [10] - Cursor开发者Lee Robinson表示,虽然Composer 2基于开源模型开发,但未来公司也会进行完整的预训练 [11] 社区反应与行业影响 - 尽管Cursor已公开道歉并补充说明,开发者社区对其先隐瞒后承认的做法仍存在不少批评声音,认为刻意淡化底座信息的行为会透支开源生态的互信根基 [12] - 月之暗面官方发推表明已与Cursor达成共识,并特别强调Cursor是通过FireworksAI托管的强化学习和推理平台访问的Kimi K2.5,这是授权商业合作的一部分 [12] - Cursor的竞争对手Windsurf抓住机会蹭热度,宣布未来一周将对用户免费开放Kimi K2.5 [13] - Hugging Face联创兼CEO Clement Delangue从事件中看到开源的价值,表示中国的开源模型如今已成为塑造全球AI技术栈的最大力量 [13] 引发的行业思考 - 事件引发行业对下游应用厂商在享受开源红利时,应如何妥善处理“商业包装”与“技术透明度”之间平衡的思考 [14]
中国AI“Kimi”:开源模型正在逼近最尖端
日经中文网· 2026-03-21 08:33
文章核心观点 - 中国AI公司月之暗面(Moonshot AI)采用开源模式,其高性能模型“Kimi K2.5”正在逼近最尖端水平,这被视为中国AI抗衡美国以闭源模型(如OpenAI)为主导地位的一种策略 [2][4] - 开源和廉价的设计将推动中国AI在新兴国家普及,存在抗衡美国AI主导权的意图,例如中国DeepSeek在非洲的使用率是其他地区的2至4倍 [4] 公司战略与模型特点 - 月之暗面的目标是建立更优秀的开源模型,并相信智能民主化,其优点在于不是作为黑箱使用,而是可以访问模型的全部内容 [4] - 公司致力于通过提高信息处理效率、扩大模型一次可参考的信息范围、增加自动执行任务的智能体协作数量这三点来提高模型性能 [5] - “Kimi K2.5”的一个关键特征是采用多个智能体协同工作的“Swarm(集群)”架构,最多可制造100个分身,根据需要组成团队并行工作以提升效率和处理能力,大大缩短执行时间 [5] 行业格局与市场影响 - 全球AI模型发展呈现不同路径:美国主要是以OpenAI为代表的闭源模型,而中国则一直采用开源模型 [2][4] - 中国AI通过开源和低价的设计,旨在推动其AI技术在新兴国家普及,这背后包含抗衡美国AI主导权的战略意图 [2][4]
黄仁勋罕见发长文
创业家· 2026-03-16 18:34
文章核心观点 - 人工智能不应被视为单一模型或应用,而是如同电力和互联网一样不可或缺、正在形成的基础设施体系 [2][3] - AI产业正在经历一场工业革命级别的技术基础设施建设,当前全球已投入数千亿美元,但未来仍需数万亿美元投资,整体建设仍处早期阶段 [3][16][21] - AI将从根本上改变软件范式,从“预先写好的程序”转变为“实时生成智能”,并催生AI Agent等新形态成为主流 [5][8] - AI的发展将创造而非削减就业机会,尤其是在基础设施和高技能技术工种领域,劳动力需求庞大且供不应求 [5][16] AI的技术范式转变 - AI与传统软件的根本差异在于,AI能够理解图像、文本、声音等非结构化信息并理解其意义,这是计算机历史上的第一次 [8] - AI的核心是“实时生成智能”,每一次响应都是新生成的,取决于上下文,计算机从执行指令转向进行推理 [8] - 由于智能实时生成,支撑它的整个底层计算技术栈都必须被重新设计和发明 [8][23] AI产业的“五层蛋糕”基础设施结构 - AI基础设施可拆解为一个五层的技术栈,从下至上依次为:能源、芯片、基础设施、模型、应用 [10][24] - 各层之间是强耦合关系,每一个成功的应用都会强有力地拉动其底部的每一层需求 [12][24] - **能源层**:是AI基础设施的第一性原理和硬性约束,实时生成的智能需要实时产生的电力 [12][23] - **芯片层**:处理器旨在将能源大规模高效转化为计算力,其进步决定了AI扩展的速度和智能的可负担程度 [12][24] - **基础设施层**:包括土地、电力、冷却、网络等,核心是“AI工厂”,其设计初衷是为了“制造智能”而非存储信息 [12][24] - **模型层**:AI模型能理解语言、生物学、化学、物理学等多类型信息,语言模型仅是其中一个类别,颠覆性工作正发生在蛋白质AI、化学AI、机器人技术等领域 [12][24] - **应用层**:是创造经济价值的地方,例如药物发现平台、工业机器人、自动驾驶汽车、人形机器人等 [13][24] AI产业的规模与影响 - 产业规模:全球已投入数千亿美元,但未来仍需建设数万亿美元规模的基础设施,这可能成为人类历史上最大规模的基础设施建设之一 [16][25] - 劳动力影响:AI基础设施建设将创造大量高技能、高薪酬岗位,如电工、管道工、网络技术人员、安装工等,目前供不应求,参与变革不一定需要计算机博士学位 [5][16][25] - 行业影响:AI不仅改变软件行业,更是一场工业级转型,将改变能源生产、工厂建设、工作组织及经济增长模式 [21][27] - 开源模型作用:全球大量AI模型是开源的,当开源模型达到先进水平时,会激活并拉动整个技术栈(训练算力、基础设施、芯片、能源)的需求,DeepSeek-R1是典型案例 [18][19][26] AI Agent的发展与培训课程信息 - 未来几年,传统的软件和APP形态或将消失,一种全新的软件范式AI Agent(智能体)极有可能成为主流 [5] - 文中插播了“黑马·AI星球Agent实战营”课程信息,该课程定位为国内首个基于“全链路业务拆解+Agent搭建实战”的企业级Agent实战营 [5][29] - 课程采用“3天闭关+90天陪跑”模式,承诺让学员带走一套企业级Agent构建方法论、一个可运行Agent Demo、一份落地推进计划,并获得在线陪跑与资源对接支持 [5][33]
国产大模型周调用量再超美国
第一财经· 2026-03-16 18:19
全球AI大模型调用量格局变化 - 国产AI大模型在OpenRouter平台的周调用量已连续两周超过美国大模型产品 [5] - 3月9日当周,全球模型调用量排名前九名中,国产模型占据四席并包揽前三名,整体国产模型周调用量约4.69T,较上周的4.194T环比上涨11.82% [5][6] - 同期,美国AI大模型周调用量为3.294万亿Token,环比下滑9.33%,OpenAI系列模型未进入前十 [6] 领先的国产大模型及调用数据 - 周调用量排名第一的是MiniMax M2.5,调用量为1.75T [5] - 排名第二的是阶跃星辰模型Step 3.5 Flash,调用量为1.34T [5] - 排名第三的是DeepSeek V3.2,调用量为1.04T,Kimi K2.5位列第九 [5][6] 新兴模型与行业动态 - 神秘模型Hunter Alpha引发关注,是一款为Agent用途构建的1万亿参数、支持100万Token上下文的模型,擅长长期规划和复杂推理 [6] - Hunter Alpha于3月15日获得OpenRouter日榜第一,另一款匿名模型Healer Alpha也进入日榜前十,两款模型均被OpenClaw开发者公开推荐 [7] - 智谱公司于3月16日推出面向“龙虾”场景的闭源基座模型GLM-5-Turbo,是2025年以来其发布的首个闭源模型 [7] 国产模型增长的核心驱动力 - 国产模型调用量持续上升,主要驱动力是OpenClaw等智能体(Agent)场景对模型调用需求的激增,这类任务常消耗百万级Token [7] - 性价比是国产模型受海外开发者青睐的关键因素,例如MiniMax M2.5的输入价格为每百万Token 0.3美元,输出价格为1.1美元,远低于Claude Opus 4.6的5美元和25美元 [7] - 国产模型凭借开源策略在海外市场建立了口碑与影响力 [8] 行业面临的挑战与商业化压力 - 海外模型正加速“务实”商业化,例如Gemini关停低价旧版,Claude收紧峰值TPM(每分钟Token数)限制5倍以上 [8] - 行业面临性能、开源与商业化之间的平衡问题,阿里巴巴Qwen大模型技术负责人离职事件暴露出公司营收压力与开源之间的本质矛盾 [8] - MiniMax上市后首份财报显示,2025年营收约7904万美元,同比增长159%,但年内亏损同比增加302%至18.7亿美元 [8]
英伟达GTC大会前瞻:三大看点!
美股IPO· 2026-03-16 09:26
文章核心观点 本届英伟达GTC大会被视为AI产业的重要风向标,其释放的战略信号可能重塑2026年的产业格局,核心关注点在于公司战略重心从AI训练向推理市场的转变、供应链的潜在重构以及在AI应用生态上的扩展 [3][4][5][11] 战略重心转变:切入AI推理市场 - 当前AI产业正从“训练优先”逐步转向“推理驱动”,英伟达在训练领域优势稳固,但在推理市场面临Cerebras等竞争者的挑战 [5][6] - 公司预计将宣布一套融合英伟达与Groq技术的新型芯片系统,以应对推理市场竞争,该系统是公司首次将另一家公司的AI处理器(Groq LPU)直接整合进其服务器机架体系 [5][6] - 此次整合基于公司在2023年底斥资约200亿美元获得Groq技术许可的背景,Groq LPU是专门针对推理工作负载优化的芯片 [6] 供应链布局调整:引入三星代工 - 新的Groq LPU芯片预计将在2024年下半年由三星代工生产,这可能是英伟达服务器芯片首次由台积电以外的代工厂制造,旨在打破长期依赖单一供应商的格局 [5][7] - 这一变化可能主要是阶段性的,由于下一代LPU需要与英伟达未来AI芯片更紧密整合,后续生产仍可能回归台积电 [7] - 在需求端,英伟达预计将宣布OpenAI成为该新系统的首批客户之一,该芯片系统可能用于驱动AI代理执行编码等任务 [5][8] 技术架构与未来路线图 - 新系统架构设计显示,每个服务器机架将搭载256颗Groq芯片,并由Intel处理器负责通信管理,这表明英伟达现有架构尚未与LPU完全融合 [9] - 公司有长远整合计划,内部正在探索将Groq处理器与下一代Feynman GPU(Rubin架构后继产品)融合为单芯片的方案,旨在提升性能并降低整体成本 [9] AI应用生态扩展 - 随着“AI摩尔定律”(算力效率约每四个月翻倍)持续推进,公司在机器人和物理AI领域的布局备受关注,特别是在中国人形机器人产业加速发展的背景下,其能否在自动驾驶等场景提供更具成本优势的解决方案成为市场焦点 [10] - 公司在开源模型领域快速推进,已发布1200亿参数的Nemotron 3 Super模型,并计划推出参数规模扩大四倍的Nemotron 4 Ultra,模型能力提升有望进一步降低企业AI推理成本并改善投资回报率 [10]