大语言模型
搜索文档
海致科技集团(02706.HK)拟全球发售2803.02万股H股 预计2月13日上市
格隆汇· 2026-02-05 07:25
公司上市与发行概况 - 公司计划全球发售2803.02万股H股,其中香港发售280.32万股,国际发售2522.7万股,招股期为2026年2月5日至2月10日,预期定价日为2月11日,H股预计于2026年2月13日在联交所开始买卖 [1] - 发售价区间为每股25.6至28.0港元,每手买卖单位为200股,联席保荐人为招银国际、中银国际及申万宏源香港 [1] 公司业务与技术定位 - 公司是中国领先的企业,专注于通过图模融合技术开发Atlas图谱解决方案及产业级智能体,提供产业级人工智能解决方案 [2] - 核心产品Atlas图谱解决方案基于行业领先的图计算与数据分析能力构建,包含DMC数据智能平台、Atlas知识图谱平台及AtlasGraph图数据库,帮助企业整合、处理、管理多源数据,并进行知识图谱构建、分析与复杂关系挖掘 [2] - Atlas智能体基于图模融合技术开发,通过融合大语言模型的推理能力与知识图谱的准确性及可解释性,赋能企业实现智能自动化、场景化推理及自然语言交互 [2] 基石投资者情况 - 公司已与基石投资者订立协议,基石投资者同意按发售价认购总额约1500万美元的发售股份 [3] - 以发售价中位数26.80港元计算,基石投资者将认购434.92万股发售股份 [3] - 基石投资者包括JSC International Investment Fund SPC(代表Etown SP)、由智谱华章间接全资拥有的JINGSHENG HENGXING、Infini以及Mega Prime Development Limited [3] 募集资金用途 - 假设以发售价中位数26.80港元计算,公司预计全球发售所得款项净额约为6.484亿港元 [4] - 募集资金计划用途及比例为:约45.0%用于研发以强化图模融合技术;约20.0%用于优化Atlas智能体;约15.0%用于深化客户合作、探索新应用场景及拓展海外市场;约10.0%用于战略投资、合并及收购;约10.0%用于营运资金及一般公司用途 [4]
海致科技集团(02706) - 全球发售
2026-02-05 06:14
全球发售 - 全球发售股份数目为28,030,200股H股,香港发售2,803,200股,国际发售25,227,000股[6] - 最高发售价为每股H股28.0港元,预计不高于28.0港元,不低于25.6港元[6][7] - 预计定价日为2026年2月11日或之前,H股于2026年2月13日开始买卖[7][19] 业绩数据 - 2022 - 2024年营收由3.13亿元增至5.031亿元,复合年增长率26.8%[32] - 2024年经营利润330万元,2022 - 2023年经营亏损[71] - 2025年同期亏损较2024年增加33.3%,毛利增加64.5%[94][95] 用户数据 - 截至2025年9月30日,与360多家客户合作,覆盖百余种场景[35][40] - 2025年Atlas图谱和智能体客户数分别为85和16[88] 未来展望 - 预计未来数年扭亏为盈[72] - 2025年估计综合亏损不超过2.07亿元[123] 新产品与技术 - 2023年推出Atlas智能体,2021年完成核心图谱数据库开发[33][60] - 2023年AtlasGraph图数据库打破世界纪录[40] 资金用途 - 预计收取全球发售所得款项净额约6.484亿港元[121] - 45.0%用于研发图模融合技术,20.0%优化Atlas智能体等[123] 其他信息 - 研发及技术团队截至2025年9月30日有528名成员[61] - 截至2026年1月27日,注册39项专利等多项知识产权[68]
OpenAI现离职潮
36氪· 2026-02-04 10:46
公司战略重心转移 - 公司正将发展重心从长期基础研究转向加速推进其旗舰产品ChatGPT [1] - 公司已重新分配资源,减少实验性研究投入,把更多预算用于升级支撑ChatGPT的大语言模型 [1] - 这一战略调整标志着公司从一家研究实验室演变为硅谷最具规模的科技公司之一,需要向投资人证明其收入增长足以支撑高达5000亿美元的估值 [1] 内部影响与人员变动 - 战略转向引发多名资深员工离职,近几个月离职者包括研究副总裁Jerry Tworek、模型政策研究员Andrea Vallone以及经济学家Tom Cunningham [1] - 未参与大语言模型开发的研究者申请算力等资源时往往被拒,或只获得不足以验证研究假设的资源 [2] - 负责视频与图像生成模型Sora和DALL-E的团队感到被忽视、资源不足,因为这些项目被认为与ChatGPT核心战略关联较低 [2] - 另有一些与大语言模型无关的项目在过去一年中被逐步关停,公司进行了团队重组以围绕ChatGPT进一步精简架构 [2] 竞争环境与外部压力 - 公司面临来自谷歌、Anthropic等竞争对手日益激烈的挑战 [1] - 去年12月,谷歌发布的Gemini 3在独立基准测试中超越公司模型,而Anthropic的Claude在代码生成方面快速追赶,促使公司CEO发出提升ChatGPT的“红色警报” [2] - 行业竞争压力巨大,所有公司都想每个季度推出最强模型,形成一场疯狂、残酷的军备竞赛,企业投入的资金令人难以置信 [2] - 公司被锁在与谷歌和Anthropic的激烈竞争中,对手模型实力接近甚至更强,公司已没有放慢脚步的空间 [3] 研究方向的内部争议 - 公司内部有观点认为,现在把语言模型更多当作一个工程问题来处理,通过扩大算力规模、优化算法和数据来获得性能提升,但做真正原创性、突破性研究变得非常困难 [1] - 首席研究官Mark Chen否认上述说法,称长期、基础性的研究仍是公司核心,大部分算力和投资仍投入在这些方向,数百个项目正在探索超越单一产品的长期问题 [1] - 前研究副总裁Jerry Tworek因希望探索“在公司难以开展的研究类型”(如持续学习)而离职,其多次申请更多算力和人员支持遭管理层拒绝,并与首席科学家Jakub Pachocki在科学路径上发生分歧 [3] 市场与护城河观点 - 许多投资人对此战略调整并不担心,认为公司真正的护城河在于数亿ChatGPT用户 [3] - 有观点认为,公司的护城河正从研究能力转向用户行为形成的平台锁定效应,这种优势更难被撼动 [4]
担任腾讯首席AI科学家后,姚顺雨带领团队揭晓首个研究成果
南方都市报· 2026-02-03 23:35
腾讯混元团队最新研究成果 - 腾讯混元团队联合复旦大学发布新研究,系统探讨大模型“从上下文中学习”的挑战与现状,这是姚顺雨担任腾讯首席AI科学家后团队首次发布研究成果 [1] - 研究指出,让大模型学会“从上下文中学习”远比想象中困难,即便抹平信息差,模型也未必能解决问题,表明其在上下文利用上存在显著能力短板 [6] - 研究构建了专门评测语言模型上下文学习能力的基准CL-bench,包含500个复杂上下文、1899个任务和31607个验证标准,要求模型必须从上下文中学习预训练不存在的新知识并正确应用 [6][7] 大模型上下文学习能力现状 - 实验发现,世界上排名前十的语言模型在CL-bench上的任务解决率平均只有17.2%,表明即使是最强模型在上下文利用方面仍然表现不佳 [7] - 该研究为大语言模型后续迭代指出了一个可能方向,即强化模型从上下文中进行学习的能力 [7] - 研究团队强调,模型如何记忆很可能成为2026年大模型发展的另一个核心主题,一旦上下文学习与记忆变得可靠,模型或能实现自主学习 [7] 行业竞争焦点与角色转变 - 研究认为,未来竞争的焦点将从“谁能把模型训练得更好”,转向“谁能为任务提供最丰富、最相关的上下文” [1][7] - 如果模型的上下文学习能力得到提升,人类在AI系统中的角色将发生转变:从主要的数据提供者转变为上下文提供者 [7] 腾讯AI组织架构与人事任命 - 去年12月17日,腾讯升级大模型研发架构,新成立AI Infra部、AI Data部、数据计算平台部,以全面强化其大模型的研发体系与核心能力 [3] - OpenAI著名研究者姚顺雨出任腾讯“CEO/总裁办公室”首席AI科学家,向总裁刘炽平汇报,同时兼任AI Infra部、大语言模型部负责人,向技术工程事业群总裁卢山汇报 [3]
刚刚,腾讯姚顺雨署名首篇论文发布,「下半场」先搞上下文学习
机器之心· 2026-02-03 18:35
文章核心观点 - 当前最先进的大语言模型在“上下文学习”能力上存在显著短板,即使提供了完整且自包含的上下文信息,模型也普遍无法有效从中学习新知识并解决依赖于此的任务,这揭示了当前模型训练范式与真实世界应用需求之间的根本性不匹配 [5][12][32][41] - 腾讯混元团队与复旦联合团队发布的CL-bench基准测试表明,即便是表现最好的模型GPT-5.1 (High),其任务解决率也仅为23.7%,所有测试模型的平均解决率仅为17.2%,这证明当前SOTA模型几乎不会从上下文中学习 [16][31][32] - 模型能力的未来发展方向需要从依赖静态“参数化知识”的推理者,转变为能够实时从“当下”环境中吸收信息的“上下文学习者”,这要求从根本上改变模型的优化方向 [12][42] 上下文学习的重要性与现实困境 - 行业专家认为,模型迈向高价值应用的核心瓶颈在于能否“用好上下文”,上下文决定了模型与人类认知的边界 [1] - 人类在工作与生活中擅长从实时上下文中学习,例如阅读新文档、学习新游戏规则或分析实验数据,而当前语言模型主要依赖预训练阶段压缩的静态“参数化知识”,缺乏从新输入信息中主动学习的能力 [9][12] - 研究表明,即便抹平了上下文带来的信息差,模型也未必能解决问题,关键在于模型是否具备从上下文中学习新知识、掌握新技能的能力 [5] CL-bench基准测试的设计与发现 - **测试目标与规模**:CL-bench是首个专门评测语言模型上下文学习能力的基准,包含500个复杂上下文、1899个任务和31607个验证标准,其核心设计原则是要求模型必须从上下文中学习预训练中不存在的新知识 [16][27] - **任务场景**:测试涵盖四大类现实世界场景:1) 领域知识推理;2) 规则系统应用;3) 程序性任务执行;4) 经验发现与模拟(归纳推理) [19][28] - **确保无污染**:在不提供上下文的情况下,GPT-5.1 (High)仅能解决不到1%的任务,证明了数据无污染,模型必须通过学习上下文才能解题 [29] - **任务复杂性**:51.1%的任务具有序列依赖性,后续任务依赖早期交互结果;领域专家平均花费约20小时标注每个上下文,以确保任务深度与质量 [29] 前沿模型在CL-bench上的表现分析 - **整体表现低迷**:在CL-bench评估的十个最先进模型中,整体任务解决率平均仅为17.2%,表现最好的GPT-5.1 (High)也仅达到23.7% [31][32] - **各场景表现差异**:模型在“经验发现与模拟”这类需要归纳推理的任务上表现最差,解决率通常低于10%,波动也最大,表明归纳推理比演绎应用规则更具挑战性 [31][39] - **主要错误类型**:模型失败的主要原因是忽略或误用上下文,而非信息缺失。例如,GPT-5.1 (High)有55.3%的错误源于忽略上下文,61.5%源于误用上下文 [34][35] - **其他影响因素**:提高推理强度(如GPT-5.1)对部分任务(如管理类和实验数据类)有约6%的提升,但并非对所有模型都有效;长上下文处理和指令遵循能力是必要的,但并非实现有效上下文学习的充分条件 [38][39] 对未来AI发展的启示与展望 - **行业竞争焦点转移**:如果上下文学习能力得到显著提升,人类在AI系统中的角色将从“训练数据提供者”转变为“上下文提供者”,行业竞争焦点可能从“训练更好的模型”转向“为任务提供最丰富、最相关的上下文” [42] - **面临的新挑战**:当前上下文学习获得的知识是临时性的,一旦上下文窗口清空,知识随之消失。因此,如何实现从上下文中习得知识的“持久化”或“记忆巩固”将成为未来关键研究方向 [43][46] - **终极愿景**:可靠的上下文学习与记忆能力可能使模型实现“自主学习”,即模型能够自主准备上下文、从中学习并自我巩固知识 [47]
“AI启航·智慧金阳” 全民阅读系列活动启动
新浪财经· 2026-02-03 02:02
活动概述 - 观山湖区金阳街道启动“AI启航·智慧金阳”全民阅读系列活动暨AI全民启蒙培训计划 为期一年的科技活动正式拉开帷幕 [1] - 活动由金阳街道主办 金红社区居委会、金阳街道综合文化站、书漾读书会承办 [1] - 活动旨在营造“爱读书、读好书、善读书”的浓厚氛围 同时引入人工智能前沿视角 为社区居民尤其是青少年开启智慧学习的大门 [1] 活动内容与观点 - 书漾读书会创始人以十年阅读推广经历 阐述在AI浪潮下深度阅读与思考的价值 认为真正的智慧源于此 而AI是帮助将知识转化为创造力的强大工具 [1] - 人工智能专家通过AI制作的歌曲MV开场 讲解了人工智能尤其是大语言模型的基本原理、现状与未来趋势 [1] - 专家揭示了AI在内容生成、角色扮演、辅助学习等方面的强大能力 同时也明确指出了其存在的局限与使用边界 [1] - 专家引导以“副驾驶”而非“替代者”的视角看待AI 鼓励孩子们在与AI互动中学会思考与探索 [1] 发展规划与目标 - 金阳街道有关负责人表示 将持续打造“书香金阳”品牌 深入各个社区开展活动 推动AI赋能居民特别是青少年的阅读与学习 [2] - 街道计划让大家更便捷地体会阅读乐趣 营造更浓厚的社区文化氛围 [2] - 今年将围绕AI工具使用、阅读方法提升、主题读书分享等内容 持续开展多场公益培训与阅读活动 [2] - 活动目标为助力辖区居民在阅读中启迪智慧 在科技中拥抱未来 [2]
大摩闭门会议-下一步何去何从-META与MSFT的算力布局-及其对GOOGLAMZN的影响
2026-02-02 10:22
纪要涉及的行业与公司 * **行业**:科技行业(特别是云计算、人工智能、在线广告)、出行与外卖服务行业[1] * **公司**:Meta Platforms Inc (META)、Microsoft (MSFT)、Alphabet (GOOGL)、Amazon (AMZN)、Uber (UBER)[1] 核心观点与论据 Meta (META) 的增长驱动力与资本支出 * 公司发现推荐算法架构与大语言模型(LLM)架构相似,规模扩大带来持续效益提升,尚未看到放缓迹象[1][2] * 公司正通过扩大推荐系统模型规模、引入更多数据和更长内容历史来提升用户参与度[1][4] * 公司正将大语言模型引入推荐架构,以理解用户观看内容的背景,实现更精准的目标定位[4] * 公司使用Gem和Andromeda模型作为“教师模型”,实际部署用于内容推荐推理的是经过精简的小型模型[1][4] * 公司给出的2026年资本支出指引为1,150亿至2,350亿美元,其中可能还有150亿美元增量云产能上线,这是营收加速增长的重要原因之一[1][4] * 若公司资本支出上限达到1,350亿美元且更多用于云基础设施,可能影响同行业其他公司的资本支出计划[1][5] 云计算行业(谷歌云、AWS)的增长预期与动态 * 预计谷歌云(GCP)第四季度增长40%,2026年全年增速将提升至44%,取决于产能能否顺利上线[1][5] * 若Meta资本支出上限达到1,350亿美元,预测谷歌2026年资本支出也可能为1,350亿美元,并存在上调倾向[1][5] * 对AWS第四季度增速预期为22%[1][6] * AWS的非Anthropic业务部分将保持高teens的增速,而Anthropic业务收入增长贡献约4个百分点[1][6] * AWS在印第安纳州12月新增50万片芯片用于首批数据中心项目,可能带来12月增量支出5-6亿美元,每1亿美元支出对应约35个基点的增长[6] * OpenAI 380亿美元合同预计四季度开始确认并执行,每月支出约4.5亿美元,对应160个基点的增长[1][6] * AWS为追赶进度而投入的产能将于2025年底及2026年逐步释放[6] Uber (UBER) 的业务表现与估值 * 公司股价约80美元时,美国出行业务对应2027年EBITDA估值倍数约为6-7倍,国际业务约10倍,外卖业务为十几倍,整体公司估值倍数约13倍[3][6] * 公司希望美国出行订单量延续20%左右的增长态势[3][7] * 由于仍在投入资源以实现持续高teens以上增长,公司利润率扩张速度有所放缓[7] * 部分增长动力来自保险成本节约,这些节约将在2026年重新投入定价策略中[3][7] 其他重要内容 * Meta的用户参与度和平台使用时长成为营收增长的重要驱动力,虽然其用户时长模式与谷歌存在差异,但推动高变现能力的核心因素在各平台间应较为相似[1][2] * 宏观环境整体强劲,假期季延续到2026年初,但Meta提到多个垂直领域存在压力[2] * 对谷歌而言,GPU驱动的技术改进仍有很大空间[2] * 超大规模算力上线后传导至需求端的过程波动较大,若谷歌云本季度增速未达市场预期的40%区间,并不意味着基本面不佳[5] * 观察AWS未来几个季度如何扩充产能以达到20%中段水平会很有意思,无论是通过增加GPU、Tritium 2还是Tritium 3[6] * 在自动驾驶不确定性下,推出了Uber的分部估值框架以帮助投资者应对市场波动[6]
陈亦伦和李震宇创立的具身公司它石智航,不做 VLA、不仿真,不走主流路线
晚点LatePost· 2026-02-02 10:06
公司核心观点与战略 - 公司(它石智航)由华为车BU前首席科学家陈亦伦与百度前自动驾驶事业群负责人李震宇等联合创立,成立不足半年即完成1.2亿美元和1.22亿美元的天使轮与天使+轮融资,创下中国具身智能领域天使轮融资纪录[4] - 公司的核心战略是摒弃行业主流的VLA(视觉-语言-动作)模型和遥操作数据采集路径,转而开发名为AWE(AI World Engine)的模型,并自研可穿戴设备来低成本、大规模采集真实世界的人类行为数据[4][5] - 公司认为具身智能是一个独立的行业,其基础模型不应是LLM或VLM的下游分支,而应有自己独立的模型体系[4][39] - 公司已通过自研的可穿戴设备采集了约10万小时数据,并预计明年数据量将“再翻数倍”,其数据采集成本相比遥操作方法“至少低两个数量级(即1/100)”[31][32] 创始人背景与技术理念 - 创始人陈亦伦拥有物理竞赛保送清华、美国机器学习博士的背景,职业生涯早期在机电系统公司学习电机、伺服控制和液压系统,其职业信念是“做出理想中的机器人”[7][8] - 在华为领导自动驾驶研发期间,陈亦伦团队在2020-2021年成功尝试了端到端系统,用3万行代码训练的神经网络替代了原有200万行规则的规控代码,并在极端场景测试成功,这被他称为“GPT时刻”,使其看到了AI做规划(Planning)的潜力[9][10][11] - 陈亦伦认为,AI解决大型复杂问题需跨越三道墙:数据墙、算力墙和后训练墙。当前具身智能的核心卡点(瓶颈)在第一道“数据墙”,即如何低成本、大规模获取高质量数据[14][15] - 其技术理念强调“重剑无锋、大巧不工”,认为面对越复杂的任务和海量的数据,神经网络结构应越简单,模型成功的关键在于定义正确的训练目标(如大语言模型的“预测下一个词”),而非复杂的架构本身[16][17][18] 行业机遇与挑战 - 通用机器人发展迎来“三道曙光”:1)运动控制(Locomotion)因强化学习和高并发仿真器的应用而解锁;2)大语言模型(如GPT)提供了强大的任务规划能力;3)端到端方法被验证有效[12][13] - 具身智能行业目前的核心痛点是数据获取,其所需的数据基础规模约为“1000万小时或更多”,比自动驾驶(约100万小时)高一个数量级[27] - 行业主流的数据采集方法(如遥操作)存在成本高、速度慢、难以进入真实场景、动作不够真实等缺陷,限制了数据规模[5][28][29] - 行业尚未在模型性能上明显展现出“Scaling Law”,但已处于数据规模快速增长的scaling状态,预计到2026或2027年会在解决垂直领域具体问题上显现效果[40] 技术路径与模型创新 - 公司反对当前主流的VLA技术路线(即在VLM上增加动作输出头),认为这会使机器人行业沦为LLM的下游分支[4][39] - 公司开发的AWE(AI世界引擎)模型追求对物理世界的“深度表达”,核心是记录时间、空间、力等“世界信息”以及机器人如何与物体交互,并能根据机器人的动作预测世界状态、推荐下一步操作[38] - 对于具身智能,两个重要的训练目标是:1)空间重建(如自动驾驶中的BEV鸟瞰视角),这是物理AI独有的需求;2)与世界的交互,特别是对柔性物体施加力的操作[18][19] - 当前AI的“智能涌现”本质是“内插”和数据的拟合,并非真正的理解。要实现像人一样快速学习新任务,需要解决“先验判断”和“想象反馈”的机制,这是未来的重大挑战[21][22][23] 数据采集方案与优势 - 公司自研了名为“SenseHub”的数据采集套件,核心是一对轻量化、无线的手套(有五指和两指版本)和第一视角摄像机,让劳动者在真实场景中佩戴工作以采集数据[24][26] - 该方案旨在采集“全信息地刻画手的动作”的数据,包括手在空间中的位姿(位置和姿态)、每个手指的位姿以及施加给对象的力[34] - 相比从互联网视频或仿真获取数据,该方案能建立“指令-动作”的准确映射,且数据更真实。仿真数据对精细操作用处不大,仅对运动控制(Locomotion)有效[27] - 该方案效率高、易于规模化、不干扰生产,但对AI能力要求更高。公司为此自研硬件,因为现有VR手柄或动捕手套等设备在精度、深度信息或昏暗环境工作能力上无法满足要求[30][35][36] 市场竞争与落地场景 - 创始人认为,在具身智能时代,中国创业者凭借强大的工业制造能力、AI人才和工程师资源,能够更好地整合硬件、数据和算法,实现协同优化,美国创业者将不是对手[37] - 公司首波重点落地场景是工业制造领域,例如汽车、家电、服务器中的线束(Wire Harness)装配。这类任务因线束具有立体、柔性特点,对传统机器人极难,高技术门槛正是公司的机会[41] - 判断具身智能公司是否靠谱的关键在于其是否“想清楚自己要成为谁”,有明确的目标和坚持正确路径的执行力[43]
黄仁勋赞台湾供应链独一无二 新面孔首度出席「兆元宴」
经济日报· 2026-02-01 07:03
英伟达供应链兆元宴核心事件 - 英伟达执行长黄仁勋在台北举办供应链晚宴,出席者包括电子五哥(鸿海、和硕、广达、纬创、英业达)及仁宝的董事长,以及新加入的奇鋐董事长沈庆行等众多台湾科技公司高层 [1] - 黄仁勋表示该聚会旨在慰劳辛苦工作的供应链伙伴,建议每6个月应聚一次 [1] 英伟达产品进展与供应链挑战 - Grace Blackwell (GB) 产品在2025年面临重大挑战,其复杂程度远超上一代Hopper架构,导致量产困难并被迫修改设计,引发供应链混乱 [2] - 黄仁勋对供应链在过去一年的合作成果表示满意与感谢,并就设计变更带来的挑战向合作伙伴致歉 [2] - GB300机柜已进入量产初期阶段,GB200量产顺利,第三代产品Vera Rubin希望量产能更简单,供应链运作速度将比以往更快 [2] AI产业趋势与商业模式 - 黄仁勋观察到AI产业出现重大改变,AI和大语言模型已变得有用,并能为产业创造价值 [3] - 2024年生成的Token(符元)因AI不够聪明而获利有限,现在AI变聪明后已能建立获利模式 [3] 供应链合作伙伴阵容与动态 - 晚宴合影第一排就坐者包括华硕董事长施崇棠、联发科副董事长蔡力行、台积电董事长魏哲家、广达董事长林百里与副董事长梁次震、纬创董事长林宪铭等核心伙伴 [3] - 其他重要出席者包括鸿海、和硕、英业达、仁宝、技嘉、纬颖、微星、光宝、台达电等公司高层,以及中国大陆PCB供应商胜宏科技董事长陈涛 [3][4] - 工业电脑厂商研华表示与英伟达合作超过20年,正从工业电脑转型为边缘AI公司,计划将英伟达算力整合进工厂自动化、智慧医疗及机器人等领域 [4] 对供应链的展望与评价 - 黄仁勋强调2025年将是“非常关键/盛大”的一年,供应链工作将非常辛苦 [5] - 黄仁勋肯定台湾供应链具备独一无二的优秀条件 [5]
黄仁勋台北“夜宴”:汇聚近40位台企高管,还有1位陆企董事长!
搜狐财经· 2026-01-31 22:56
核心观点 - 英伟达CEO黄仁勋在台北宴请近40位供应链合作伙伴高管 强调台湾供应链对公司的不可或缺性 并展望了AI产业的巨大需求与技术挑战 [1][3][10][12] 供应链生态与合作伙伴 - 宴会汇集了英伟达在台湾的核心供应链伙伴 包括台积电、鸿海、广达、纬创、和硕、仁宝、英业达、华硕、微星、技嘉等公司的高管 仅有一位来自大陆的胜宏科技高管出席 [1][3] - 研华与英伟达合作已超过20年 正从工业计算机公司转型为边缘AI公司 计划将英伟达算力整合至工厂自动化、智能医疗及机器人等领域 [4] - 黄仁勋盛赞台湾企业的技术实力与工程文化 直言“没有台湾 英伟达就不可能存在” 并点名台积电在先进制程上的关键地位 [10][12] 产品进展与技术挑战 - Grace Blackwell (GB) 架构产品在量产时遭遇困难并被迫修改设计 导致供应链面临挑战 黄仁勋为此向合作伙伴致谢并道歉 [7] - 目前GB300机柜已进入量产初期阶段 GB200量产非常顺利 第三代Vera Rubin平台希望量产能变得更简单 [8] - Vera Rubin平台由六颗全球最先进芯片组成 制程与整合复杂度极高 对晶圆代工与先进封装都是巨大挑战 [9] - 从Hopper到Blackwell再到Rubin 技术难度已从“困难变成不可能” [12] AI行业趋势与需求展望 - AI已变得有用 大语言模型变得非常有用且能产生获利模式 因为生成的Token现在更聪明了 [8] - 2026年将是AI产业“极度吃紧的一年” 对高带宽内存与LPDDR的需求将大幅爆发 整体供应链面临前所未有的压力 [8] - 尽管全球半导体供给每年以约一倍速度成长 但AI需求增长更快 导致从芯片制造、封装到存储的每个环节都极度紧张 [9] - 黄仁勋预期 未来十年台积电产能将“远超过倍数成长” 这将是人类史上最大规模的科技基础建设扩张之一 [10] 公司战略与竞争格局 - 英伟达将参与OpenAI下一轮融资 且金额可能是公司史上最大的一笔战略投资 [9] - 针对AI专用芯片ASIC将取代GPU的担忧 黄仁勋认为这不合理也不现实 强调英伟达打造的是涵盖CPU、GPU、网络芯片、交换器与数据处理系统的整个AI基础架构 其规模与研发强度非单一ASIC团队可追上 [9] - 英伟达目前每年研发预算已达200亿美元 未来仍将以每年约50%的速度成长 [12]