大语言模型(LLM)
搜索文档
2025年硅谷给华人AI精英开出上亿年薪!Agent、Infra人才被抢疯了
AI前线· 2026-01-01 10:00
文章核心观点 - 2025年硅谷AI行业的发展重心发生根本性转向,从追求模型参数规模和基准测试分数的“技术突破期”,进入强调将模型能力转化为可执行系统、可落地产品并创造持续现金流的“工程兑现期” [3][4][10] - 行业发展阶段的转换直接导致人才市场的价值重估与激烈动荡,表现为“裁员”与“抢人”同时发生的矛盾现象,其背后是行业对AI发展路径的认知从通用人工智能(AGI)转向特定领域、可落地的超级智能(ASI) [8][10] - 人才流动趋势清晰地反映了行业重心迁移:长期基础研究型高层人才被边缘化或离开大厂,而精通智能体(Agent)、多模态与实时交互、推理与基础设施(AI Infra)的工程与产品型人才成为被疯狂争抢的对象 [5][14][25] 行业重心转向:从研究到工程 - AI行业的主叙事从“谁能训练出更大的模型、刷出更高的分数”转向“谁能够将模型纳入产品与系统核心,并持续推动其在真实业务场景中发挥作用” [4] - 大语言模型(LLM)迈入平台期,“更大参数、更多数据、更高算力”的线性增长逻辑边际收益明显下降,企业关注重心转向“能不能用、能不能卖、能不能规模化” [10][11] - 以OpenAI为例,其年营收约130亿美元,却要烧掉90亿美元维持运营,2028年亏损可能膨胀至营收的四分之三,算力成本压力倒逼企业必须转向商业价值兑现 [10] 人才市场动态:裁员与抢人并存 - 2025年硅谷AI人才市场呈现“最残酷”的竞争态势,科技巨头一边高调重金抢人,一边对原有AI研究体系进行重组,导致中高层研究负责人离开 [5] - Meta是人才流动中最具冲击力的变量,采用“爆炸式offer”战术,签约金最高达1亿美元,决策窗口短至几小时,并从OpenAI等公司大量挖角 [5][28] - 行业同时出现裁员,例如Meta在10月裁掉600人,其中不少是FAIR实验室的资深研究员 [19] 研究型高层的边缘化与分流 - Meta的FAIR实验室从“战略源头”退为“技术后方”,标志着公司AI战略从“基础研究与产品并行”彻底转向“以产品为核心的集权化研发体系” [15][17][18] - 多位顶级研究负责人离开Meta,包括FAIR创始人Yann LeCun、核心组织者Joelle Pineau以及顶级研究员田渊栋 [15][19][21] - 离开的研究者分流至不同创业赛道:Yann LeCun创办AMI实验室,押注“世界模型”路线;Joelle Pineau加盟Cohere,聚焦可部署的企业级AI;“PyTorch之父”Soumith Chintala加入Thinking Machines Lab,探索下一代AI系统形态 [20][21][23] 被争抢的三类核心人才 - **智能体(Agent)与可执行系统方向**:需要能将模型嵌入到可执行、可操作系统里的人才,能力包括多步任务规划、工具调用、页面/应用直接操作等 [25][26][27] - **多模态与实时交互方向**:需求从静态生成转向强调实时感知、持续交互和环境理解,Meta为此斥资约140亿美元投资并收编Scale AI,并将其华人创始人亚历山大·王招致麾下领导新成立的“超级智能实验室(MSL)” [25][28] - **推理与AI基础设施(Infra)方向**:需要既懂深度学习,又懂系统工程、服务架构、调度策略的复合型人才,以让模型跑得起、跑得稳、跑得便宜,成为英伟达、谷歌等公司争夺的重点 [25][30][31][33] 华人工程师的关键角色 - 在2025年的人才混战中,大量华人工程师站上了关键岗位 [7] - Meta新成立的MSL团队首发成员中,至少有6人是华人,其中余家辉、赵晟佳、毕树超、Huiwen Chang、Ji Lin、任泓宇等6人都曾在OpenAI担任关键模型或团队的负责人 [28][29] - Scale AI的创始人兼CEO亚历山大·王(97年出生的美籍华人)被Meta招揽,并与前GitHub CEO共同领导MSL [28]
外媒:苹果谨慎布局人工智能,2026或迎AI反超窗口
环球网资讯· 2025-12-31 12:12
苹果公司的AI战略路径 - 公司在全球科技巨头竞相押注AI的浪潮中,选择了一条更为审慎的道路,其保守策略可能在2026年为其带来显著竞争优势 [1] AI功能发布与研发投入 - 公司曾在2024年WWDC上承诺推出具备情境感知能力的新版Siri并提出“Apple Intelligence”概念,但相关功能至今未能如期落地,此后明显放缓了AI功能发布节奏 [3] - 公司将2025年软件更新的重点聚焦于用户界面革新“Liquid Glass”,并大幅降低了对AI技术的市场宣传力度 [3] - 与Meta、谷歌等竞争对手动辄投入数百亿美元建设AI数据中心和定制芯片不同,公司在AI基础设施上的支出相对克制 [3] - 公司并未完全依赖自主研发大语言模型,计划在2026年推出的多项AI功能将整合谷歌的Gemini技术,这一合作模式降低了研发风险 [3] - 公司内部AI团队仍在探索自研模型的可能性,但部分高管认为随着LLM技术逐渐商品化,长期投入自研模型的商业合理性正在减弱 [4] 财务状况与资源储备 - 公司在AI基础设施上的节制支出使其仍保有约1300亿美元现金储备,可用于未来AI相关投资或收购 [3] 人事变动与组织架构 - 今年早些时候,原AI负责人约翰·詹南德雷亚退休,其职责由Apple Vision Pro核心开发者迈克·洛克威尔接任 [4] 硬件平台与生态优势 - iPhone作为高度集成的软硬件平台,仍是部署AI功能的理想载体 [4] - 尽管安卓设备和Windows PC已广泛引入各类AI工具,苹果凭借其生态闭环和用户基础,在AI功能交付方面仍具独特优势 [4] 战略评估与未来展望 - 公司当前采取的“稳扎稳打”策略,虽使其在短期AI竞赛中显得落后,却可能在技术成熟度、用户体验与商业可持续性之间取得更优平衡 [4] - 2026年或将成为检验这一战略成败的关键节点 [4]
自回归因果注意力也能并行解码?上交联合UCSD突破LLM推理瓶颈,模型代码全开源
机器之心· 2025-12-30 14:57
文章核心观点 - 由UCSD Hao AI Lab和上海交大Deng Lab团队提出的Jacobi Forcing技术,是一种突破性的解决方案,能够将标准自回归(AR)模型转化为原生因果并行解码器,在保持接近AR模型生成质量的同时,显著提升推理速度,为LLM高效推理开辟了新路径 [5] 技术方案核心优势 - Jacobi Forcing的核心创新在于打破了“低代价、高速度、高质量”的不可能三角,其优势体现在三大维度 [7] - 优势一:原生因果架构,部署与训练成本低。该技术保留了AR模型的因果注意力结构,完美适配现有KV缓存复用机制和AR优化内核,可作为现有AR模型的“即插即用”替代方案,极大降低部署与训练成本 [7] - 优势二:高效并行解码,速度提升显著。通过渐进蒸馏训练,模型能在每轮前向传播中并行更新多个token,结合多块并行解码和拒绝回收策略,在编码任务中实现181.8 TPS的生成速度,远超AR基线的39.8 TPS [10] - 优势三:质量损失极小,任务表现优异。通过渐进式一致性蒸馏损失和AR损失的联合优化,模型在噪声环境下仍能生成贴近AR分布的高质量结果。在HumanEval编码基准中,以83.5%的准确率实现4倍提速;在GSM8K数学任务中,91.4%的解题率接近AR基线,速度提升3.7倍 [11] 技术路线详解 - Jacobi Forcing以因果并行解码为核心目标,基于Jacobi解码框架进行深度优化,通过训练机制创新与推理策略升级的全链路设计,在保留AR模型因果骨干与KV缓存兼容性的同时,实现高效并行解码 [14] - 技术基础:基于Jacobi解码的因果并行框架。Jacobi解码是一种因果并行解码过程,对一个块内的所有token进行并行迭代更新,直到所有token与贪心AR输出完全匹配,形成“并行精炼轨迹” [15] - 训练阶段优化:采用噪声感知的渐进式学习。利用AR模型执行Jacobi解码采集轨迹,设计渐进式噪声调度策略,按“低噪声→高噪声”顺序打包训练序列,并设计噪声感知注意力掩码和加权双项联合损失函数(渐进式一致性蒸馏损失与AR损失)进行高效训练 [16][17] - 推理阶段优化:采用高效并行解码策略,核心包括“高质量草稿利用+多块调度”两大模块。推理时会缓存并复用轨迹中的高质量n-gram片段作为候选草稿,减少迭代次数。同时维护多个解码块(真实活跃块与伪活跃块)进行并行调度,最大化解码效率 [19][21] 实测性能表现 - 在A100 GPU上的7B模型基准测试中,Jacobi Forcing超越dLLMs、投机解码等主流方案,展现出更优的速度-质量权衡 [25] - 在HumanEval编码任务中,Jacobi Forcing模型实现了3.9倍的速度提升(Speedup),4.0的TPF(tokens-per-forward),以及159.5的TPS(tokens-per-second),准确率为83.5% [25] - 在GSM8K数学任务中,Jacobi Forcing模型实现了3.5倍的速度提升,3.7的TPF,以及146.1的TPS,解题率为91.4% [25] - 无论是编码、数学等专业任务,还是通用文本生成场景,Jacobi Forcing都能在保证结果可靠性的前提下,将推理速度提升一个量级,尤其适合对延迟敏感的工业级LLM应用 [27] 行业影响与前景 - Jacobi Forcing的出现,不仅解决了LLM推理的效率瓶颈,更重新定义了因果模型的并行化可能 [27] - 随着大模型应用向低延迟、高并发场景渗透,这种兼顾兼容性、高性能和高质量的解码方案,有望成为工业级LLM部署的首选技术,推动AI应用效率迈入新阶段 [27]
物理学变天,「AI主导」论文首次登顶刊,人类科学家沦为验证者?
36氪· 2025-12-25 15:54
文章核心观点 - 一篇理论物理学论文的核心突破性思路由GPT-5提出,这标志着AI在基础科学研究中的角色从辅助工具转变为能够提供核心灵感的积极参与者,预示了新的科研工作流范式[4][5][18] AI在科学研究中的角色转变 - AI(GPT-5)主动提议使用Tomonaga-Schwinger形式的量子场论作为分析框架,为研究非线性量子力学与相对论的兼容性问题提供了核心方法论[10][19] - 大语言模型被视为“才华横溢但不可靠的天才”,既能提供深刻洞见,也可能产生看似合理但完全错误的“高水平胡扯”,需要结构化的工作流程进行验证[21][22] - 未来,人机混合协作可能成为数学、物理等高度形式化科学的常态,AI有望像自主研究智能体一样提出猜想、验证推导并撰写论文[23] 论文研究的物理学问题 - 研究旨在审查量子力学的演化是否严格线性,探讨在标准线性薛定谔方程中引入非线性或状态依赖修正的可能性[8] - 修改量子力学的线性结构可能导致严重问题,如超光速通信、与相对论不兼容,或使量子计算机能快速解决NP完全问题[9] - 论文在Tomonaga-Schwinger框架下推导发现,引入状态依赖的局域哈密顿密度几乎总会破坏相对论协变性所需的“叶片无关性”条件,表明维持相对论兼容性的非线性修改变得极其困难[11][15][16] 论文的具体贡献与方法 - 论文将非线性量子动力学的兼容性问题置于Tomonaga-Schwinger的量子场论框架中进行分析,并推导出了明确的算符可积性条件[11][15] - 研究揭示了状态依赖项会引入Fréchet导数等复杂结构,使得满足相对论协变性的条件非常苛刻[16] - 这项工作呼应了上世纪80、90年代Weinberg、Gisin等人的研究,但提供了更统一、可检验的场论框架[15] 新的科研工作流范式 - 作者实践了一种“生成-验证”协议,由一个AI实例负责生成思路和推导,另一个独立实例负责检查自洽性,形成多模型协作的安全阀[18][22] - 这种工作流展示了AI如何作为积极参与者,与人类研究者反复循环合作,共同完成具体推导和讨论[19]
聊天机器人只是过客?谷歌押注“世界模型”,寄希望智能眼镜成为AI真正“杀手级”应用
华尔街见闻· 2025-12-23 18:30
公司战略重心调整 - 谷歌正在调整其人工智能战略重心,试图超越当前主导行业的聊天机器人范式,押注于能够理解物理世界的“世界模型”,以寻求AI技术的下一个质的飞跃 [1] - 公司计划于2026年推出新款AI智能眼镜,旨在通过“世界模型”技术与Meta等竞争对手展开差异化竞争 [1] - 该设备由谷歌与三星合作制造,旨在理解三维空间、物理对象间的关系以及环境动态,而不仅仅是描述画面 [1] 技术路径与行业竞争 - 在谷歌的战略版图中,以ChatGPT为代表的大语言模型并非通往通用人工智能的唯一路径 [3] - 尽管OpenAI和Meta全力押注于基于海量网络内容训练的聊天机器人,并在算力上投入数千亿美元,但公司坚持认为基于模拟和物理环境训练的“世界模型”将引领AI的下一次飞跃 [3] - 谷歌正采取对冲策略,既投资于现有的聊天机器人技术,也在可能改变范式的“世界模型”技术上重注布局 [3] - 公司通过合并AI部门并由Hassabis统一领导,以及重新聘请Transformer架构共同发明人Noam Shazeer等措施加强内部整合与竞争力 [4] 产品进展与市场表现 - 随着Gemini 3模型的成功发布,谷歌在性能榜单上拔得头筹,并在用户规模上实现对OpenAI的强有力追赶 [1] - Gemini模型拥有超过6.5亿的月活跃应用用户,以及通过谷歌搜索获得的约20亿用户 [4] - 计划于明年推出的智能眼镜预计将配备透镜显示屏,用于导航和翻译等功能,并可能具备记忆物品位置、理解三维环境并预测动态的能力 [7] 商业化前景与行业意义 - 谷歌面临巨大的商业化压力,急需证明其AI技术能通过广告以外的途径变现,计划推出的智能眼镜承载了这一厚望 [7] - 如果基于世界模型的智能眼镜成功,将不仅仅是硬件业务的复苏,更可能标志着AI应用从单纯的语言处理向物理世界交互的范式转变 [2] - 该产品若获得市场认可,将有望洗刷谷歌Glass曾留下的糟糕声誉,并可能成为AI领域的真正“杀手级”应用,确立公司在下一代计算平台中的领导地位 [7] - 这不仅关乎谷歌能否找到AI时代的“杀手级”应用,也将决定Hassabis能否成功转型为定义谷歌下一个时代的商业架构师 [2]
给AI接上专有知识库:RAG的工程化实现
钛媒体APP· 2025-12-23 15:09
文章核心观点 - 通用大语言模型在企业应用场景中存在知识盲区、知识过时和幻觉三大缺陷,无法满足企业处理内部专有知识的需求[2][3] - 检索增强生成架构通过为通用大模型配备检索企业专有知识库的能力,使其成为懂企业业务的“内部专家”,是解决上述矛盾的主流方案[2][8] - RAG的落地不仅是技术工程,更倒逼企业在知识管理、业务适配和持续运营上进行深度管理变革,其成功取决于组织的长期投入[18][21][23] RAG的定义与价值 - RAG是一种工程化管理体系,其核心理念是给通用大模型配备一个懂得高效查阅公司资料的“助理”[5] - 其工作流程分为三步:先检索企业内部知识库找到最相关资料,再将资料作为上下文注入提问,最后让大模型基于真实资料生成答案[5][6] - RAG的价值在于管理上解决了企业痛点:消除AI幻觉、无需重新训练模型即可更新知识、使AI能回答企业专有问题[7][8] 通用AI在企业应用中的缺陷 - 知识存在“盲区”:AI只知公开互联网信息,对企业内部知识、专有业务术语和未公开数据完全“失明”[3] - 知识存在“过期”:AI模型的知识截止于训练日期,无法实时跟进企业每天更新的流程和产品[3] - AI会“瞎编”:当AI不知道答案时,会编造听起来合理的答案,这种“幻觉”在企业场景中可能导致决策失误[3] - 结果导致通用AI在企业内部专业场景下常常“答非所问”或“胡说八道”[4] RAG的工程化实现架构 - RAG是一套需要搭建“双向数据流管道”的严谨工程化架构,分为离线管道和在线管道[9] - **第一阶段:索引构建**:目标是将企业内部散乱的非结构化私有知识转化为AI可理解和快速检索的格式,这是系统的地基[10] - **第二阶段:检索增强**:目标是根据用户问题从向量数据库中高效准确地找到最相关知识片段,核心包括语义理解与向量搜索以及重排序以提高准确性[12][13][14] - **第三阶段:生成输出**:目标是将检索到的知识与大模型结合生成高质量答案,核心挑战包括提示词构建的平衡艺术以及生成后的后处理与引用标注[15][16][17][18] RAG落地面临的管理挑战 - **知识管理挑战**:RAG效果取决于知识库质量,企业会遭遇知识散落与版本混乱、权限与涉密问题、以及知识更新责任人缺失等管理问题[19] - **业务适配挑战**:不同业务场景对RAG要求不同,存在通用框架与专有需求的矛盾,例如业务术语理解和多模态知识处理[20] - **持续运营挑战**:RAG不是一次性项目,需要持续运营以应对效果衰减、建立用户反馈闭环和价值量化评估体系[21][22] RAG的定位与局限 - RAG让AI从“通用助手”变成了“企业专家”,通过结合检索系统与生成模型,降低了幻觉并提升了专业性[22] - RAG已成为企业应用AI的第一步和主流架构,是将AI力量转化为企业内部生产力和决策力的关键[23] - RAG也存在局限:其效果依赖知识质量,擅长“查资料回答”但不擅长“复杂推理”[22]
智能问数方案哪家更靠谱?企业选型核心指南
搜狐财经· 2025-12-22 23:50
智能问数工具的核心价值 - 智能问数工具的核心价值在于打破数据分析的技术壁垒,让非技术人员能够高效获取数据洞察,是企业数字化转型的关键支撑 [2] - 具体体现为三大核心优势:降低用数门槛,让业务人员无需学习SQL,用日常语言提问即可自主获取数据结果 [2];提升决策效率,将传统模式下1-3天的分析周期缩短至秒级响应,适配快速决策场景 [2];深化数据洞察,支持多轮对话与自动延伸分析,帮助企业挖掘数据背后的深层原因 [3] 智能问数工具的选型标准 - 选型需重点关注四大核心标准:易用性,核心考察自然语言解析准确率与交互流畅度,如支持多轮对话和关联问题推荐 [3];数据整合能力,需具备多源数据接入与融合能力,以打通企业数据孤岛 [4];安全性与合规性,需支持精细化权限控制、数据加密及通过行业合规认证 [5];行业适配性,需能匹配具体业务场景,提供行业专属模板以减少二次开发成本 [6] 主流智能问数工具对比 - **网易数帆-网易知数**:核心优势体现在全栈能力均衡、企业级适配性强、行业落地深 [7] 其自然语言解析准确率达95%以上,支持多轮连续对话 [7] 具备50+种数据源接入能力,能深度融合结构化与非结构化数据 [8] 支持私有化部署与精细化权限控制,通过等保三级等合规认证 [8] 沉淀了制造、金融、零售等多个领域的专属分析模板,已服务400+头部企业,平均可帮助企业减少70%分析时间,提升150%开发效率 [9] - **阿里羚羊**:核心优势集中在AI大模型与电商、零售场景的深度适配,支持超大规模订单实时分析,并预置电商专属功能模块 [13] - **亿信华辰ABI**:核心特点是“数据治理+智能问数”一体化,通过先治理数据再进行分析,适配需要先解决数据质量问题的场景 [14] - **神策数据**:核心聚焦用户行为分析领域,智能问数功能围绕用户全生命周期设计,擅长打通全端用户触点数据 [15] - **帆软BI**:核心优势在于自定义能力强,支持自然语言提问与拖拽式操作结合,且社区资源庞大 [16] - **永洪BI**:以“敏捷BI”和“自助分析”为核心亮点,操作门槛低,企业级应用稳定性较强 [17] - **枫清科技**:核心优势是部署便捷、成本可控,支持快速连接常见数据库,能满足中小企业基础数据分析需求 [18] - **Power BI**:智能问数功能与微软生态深度集成,协同办公优势显著,可视化模板丰富且定价灵活 [19] 企业选型常见问题解答 - 对于常规数据分析需求,业务人员即可通过工具自主完成,无需强制雇佣数据科学家 [20] - 中小企业预算有限,可选择云端SaaS模式控制初期成本,再随业务增长平滑升级 [21] - 分析结果的准确率取决于工具的语义解析能力与企业数据质量,优质工具会通过企业知识库融合、数据血缘追溯等功能提升准确率 [22] - 企业级工具支持按部门、角色分配数据访问权限,并可进行数据脱敏,以满足协作与安全的双重需求 [23] 选型关键建议 - 选择智能问数工具的核心是精准匹配自身需求,而非追逐功能最全 [24] - 对于中大型企业或高合规要求行业(如国央企、金融、制造),需优先考虑兼顾数据安全、多源整合与长期业务演进的工具,如网易数帆 [24] - 企业需结合自身规模、行业属性、数据基础与生态依赖进行综合评估,才能让工具真正落地见效 [24]
近两百万人围观的Karpathy年终大语言模型清单,主角是它们
机器之心· 2025-12-21 11:01
2025年大语言模型(LLM)发展的核心观点 - 2025年是大语言模型快速演进、重磅事件密集出现的一年,行业格局发生了真正的改变[2][6] - 大语言模型正在显现出一种全新的智能形态,其既比预期的聪明得多,又比预期的愚蠢得多[37] - 大语言模型已经极其有用,但行业甚至还没有发挥出它们10%的潜力[38] 可验证奖励强化学习(RLVR)成为新标配 - 2025年初,几乎所有实验室的LLM生产训练流程都包含预训练、监督微调(SFT)和基于人类反馈的强化学习(RLHF)[8][9] - 2025年,一种新的训练阶段——可验证奖励强化学习(RLVR)——浮出水面并迅速成为事实上的标配[10] - RLVR的核心是让模型在可自动验证的环境中接受强化学习训练,模型能自发学会类似“推理”的策略,如将复杂问题拆解成中间步骤并逐步逼近答案[10] - 与SFT或RLHF这类“计算量相对较小的薄层微调”不同,RLVR使用客观、难以被投机取巧的奖励函数,使得训练可以持续非常久[10] - RLVR提供了极高的能力/成本比,大量吞噬了原本准备用于预训练的算力[10] - 2025年的大部分能力提升,并非来自模型规模的暴涨,而是来自相似规模模型加上更长时间的强化学习训练[11] - RLVR带来了新的“旋钮”:通过在推理时生成更长的思考链条、投入更多测试时算力,模型能力可以继续提升,并呈现出新的扩展定律[11] - OpenAI的o1是第一个明确展示RLVR思路的模型,而2025年初的o3则是让人直观感受到质变拐点的版本[12] 对LLM智能“锯齿状”分布的新认知 - 2025年,行业第一次真正直觉性地理解了LLM智能的“形状”,认识到其与人类智能的优化目标完全不同[14] - 大语言模型的智能被描述为“锯齿状”明显的能力分布:它们可以在某些可验证领域表现得像博学的天才,同时在另一些地方像困惑的小学生,甚至容易被攻击[14] - 这种“锯齿状”智能也解释了为何在2025年对基准测试普遍不当回事与不信任,因为基准测试本质上是可验证环境,天然容易被RLVR或“合成数据训练”所攻破[15] - 模型团队往往会在基准所在的嵌入空间附近“培育能力突起”,把能力尖刺精准地长到测试点上,“在测试集上训练”已经演变成了一门艺术[15] Cursor揭示LLM应用新范式 - Cursor在2025年的爆发清晰地揭示了一种全新的LLM应用层[16] - 像Cursor这样的LLM应用,本质是在为特定垂直领域打包和编排LLM能力,引发了关于“这一层会有多厚”的大量讨论[17] - 基础模型会趋向于“一个通用能力很强的大学毕业生”,而真正把他们组织成专业团队、在具体行业中落地的会是应用层,通过私有数据、传感器、执行器和反馈回路将模型组织并投入实际工作流程[17] - 应用层的关键功能包括:上下文工程、在后台编排多次LLM调用形成复杂的有向无环图、提供面向人的领域专用图形用户界面、提供“自主性滑块”[18] Claude Code定义本地化智能体新形态 - Claude Code被认为是第一个“真正的LLM智能体”,它以循环方式将推理与工具调用串联起来,能持续解决长任务[19] - 更重要的是,它运行在用户的本地电脑上,直接使用用户的环境、数据和上下文[20] - 在一个能力锯齿、起飞缓慢的世界里,更合理的顺序是先让智能体成为开发者身边的伙伴,Claude Code用一个极其优雅、极简、极具说服力的命令行界面形态呈现了这一点[20][21] - 这代表AI不再只是一个访问的网站,而是一个住在电脑里的伙伴,是一次全新的交互范式转变[22][23] “氛围编程”重塑软件开发 - 2025年,AI跨过了关键门槛,使得人们可以只用英语构建复杂程序,甚至忘记代码本身的存在,这被称为“氛围编程”[24][25] - “氛围编程”让编程不再只是专业工程师的专利,同时也让专业工程师可以写出大量原本永远不会被写出来的软件[27] - 代码变得不值钱、短暂存在、并可随意改写与丢弃,这正在重塑软件形态和工作角色[28][29] Nano Banana预示LLM的图形用户界面未来 - Google Gemini的“Nano Banana”是2025年最令人震撼的模型之一,它被视为构建真正LLM图形用户界面的一个早期但重要的信号[31][33] - 其意义不只在于图像生成,而在于文本、图像与世界知识在同一模型中深度纠缠[34] - 在UI/UX层面,“聊天”就像80年代的命令行,而人们更喜欢视觉化、空间化的信息,因此LLM应该用人类偏好的形式(如图片、信息图、幻灯片)进行交流[32][33]
智谱,通过港交所IPO聆讯,或很快香港上市,中金公司独家保荐
搜狐财经· 2025-12-20 20:11
公司概况与市场地位 - 公司为北京智谱华章科技股份有限公司,于2025年12月19日披露港交所聆讯后招股书,计划在香港主板IPO上市 [2] - 公司成立于2019年,是中国领先的人工智能公司,致力于开发先进的通用大模型(AGI) [2] - 根据弗若斯特沙利文资料,按2024年收入计,公司在中国独立通用大模型开发商中排名第一,在所有通用大模型开发商中排名第二,市场份额为6.6% [3] 业务与技术 - 公司于2021年发布中国首个专有预训练大模型框架GLM框架,并推出模型即服务(MaaS)平台,提供语言、多模态、智能体及代码四类模型 [2] - 公司于2022年开源首个1,000亿规模模型(GLM-130B),是中国首家发布自研开源大模型的人工智能公司 [2][5] - 截至2025年6月30日,公司已开源50多个模型,累计下载量超过4,500万次 [5] - 截至2025年6月30日,公司模型已为超过8,000家机构客户及约8,000万台设备提供支持 [2] - 公司模型已与40多款主流硬件芯片兼容,通过自研算子库确保在多元硬件环境中的高效训练 [5] 财务表现 - 2022年、2023年、2024年及2025年前六个月,公司营业收入分别为人民币0.57亿元、1.25亿元、3.12亿元及1.91亿元 [13] - 同期,公司净亏损分别为人民币1.44亿元、7.88亿元、29.58亿元及23.58亿元 [13] - 同期,公司经调整净亏损分别为人民币0.97亿元、6.21亿元、24.66亿元及17.52亿元 [13] - 2025年前六个月,研发开支高达人民币159.47亿元,是同期收入(19.09亿元)的8.35倍 [14] 股东与治理结构 - 上市前,以刘德兵博士为核心的一致行动人集团合计持股约33.03% [7] - 资深独立投资者包括君联资本、美团、启明创投等,合计持股约13.49% [7][9] - 其他知名投资者包括蚂蚁集团、腾讯投资、Capital Today、达晨财智、华控资本、中关村科学城、珠海华发、沙特Aramco Ventures旗下Prosperity7等 [7][9] - 董事会由9名董事组成,包括3名执行董事、3名非执行董事及3名独立非执行董事 [12] 上市相关 - 公司每股H股面值为人民币0.10元 [1] - 中金公司担任本次IPO的独家保荐人 [1][15] - 其他中介团队包括毕马威(审计师)、天元(公司中国律师)、年利达(公司香港及美国律师)等 [15][16]
香港证监会原主席梁定邦:智能金融不“唯大模型”论 监管需严保数据真实与风险可控
新浪财经· 2025-12-20 18:02
港澳智能金融发展现状 - 港澳地区智能金融已覆盖银行、证券、保险、跨境金融和电子支付五个领域 [3][7] - 香港在推进人工智能应用于传统金融时,采取包括区块链在内的多层次、多架构技术融合策略,并非单纯依赖大语言模型 [3][7] 香港金融科技应用与监管实践 - 目前“大数据”仍是香港金融科技应用基础,“大模型”只是其中一环 [3][7] - 香港自2019年起已在监管中引入“大数据”分析、专家系统、机器学习等多种技术手段 [3][7] - 监管机构在核心业务中优先使用可验证、可追溯的底层真实数据,而大模型多用于辅助性、后台类工作 [3][7] 人工智能在金融业务中的应用与审慎态度 - 由于大模型存在“幻觉”风险,在金融监管及业务场景中必须对AI保持审慎态度 [3][7] - 生成式人工智能在涉及客户直接交互的前台业务中应用较为谨慎,主要集中于后台的风险管理、数据分析等支持性环节 [3][7] - 最终决策仍需由风险管理委员会及风险官结合个人经验与多维度数据进行判断,不能完全依赖模型输出 [3][7] 香港智能金融发展的核心理念 - 香港在智能金融发展上保持高度开放态度 [3][7] - 在客户端及核心业务中需要严格保证数据真实、风险可控,确保金融体系安全稳定 [3][7]