AI科技大本营
搜索文档
C++ 之父亲临现场,2025 全球 C++ 及系统软件技术大会日程抢先看!
AI科技大本营· 2025-11-24 18:47
大会基本信息 - 由CSDN与奇点智能研究院联合主办的2025全球C++及系统软件技术大会将于12月12-13日在北京金隅喜来登大酒店举办[1] - 大会主题为AI原生时代下C++与系统软件的演进路径、工程实践与未来范式[1] - 官网地址为https://cpp-summit.org/[3][15] 大会核心议程与主题 - 设立现代C++最佳实践、架构与设计演化、大模型驱动的软件开发、AI算力与优化、异构计算、高性能与低时延、并发与并行、系统级软件、软件质量建设、安全与可靠、研发效能、嵌入式系统十二大主题[4] - 超过40位来自百度、阿里、腾讯、智元、快手、小米、京东、美团等企业技术专家及高校科研工作者参与分享[4] 首日(12月12日)议程亮点 - 主会场将迎来C++之父Bjarne Stroustrup、CSDN高级副总裁李建忠及头部科技企业系统软件领军人物的主题分享[5] - 特别设置"AI原生时代的系统软件"高端圆桌讨论,Bjarne Stroustrup将与一线技术专家同台对话[8][9] - 下午场围绕现代C++最佳实践、AI算力与优化、并发与并行等专题,邀请Adobe、阿里、小米、奇点智能研究院、清华大学、北京智源人工智能等行业专家进行深度技术拆解[10] 次日(12月13日)议程亮点 - 同步开启大模型驱动软件开发、高性能与低时延、研发效能与软件质量、AI算力与优化、系统级软件等多个专题论坛[17] - 来自百度、阿里、腾讯、美团、京东、智元、vivo、商汤、中科院等全球顶尖科技企业的技术专家及科研团队带来深度分享[17] - 具体议题包括编译技术在AI软件栈中的实践、面向异构计算的统一智能计算架构、Coder CLI技术、统一算力释放智能、RISC-V大模型推理AI编译器设计等[19][20] 参会企业与机构阵容 - 参会企业包括百度、阿里、腾讯、智元、快手、小米、京东、美团、vivo、商汤等头部科技公司[4][17] - 科研机构涵盖清华大学、中国科学院计算技术研究所、北京智源人工智能研究院、中国科学院软件研究所等顶尖高校及科研单位[10][17][20] 大会特色与价值主张 - 大会聚焦AI原生时代下软件工程的核心挑战与前沿实践,探讨C++如何持续赋能AI时代的关键底层系统[5][17] - 提供从语言标准到工程落地、从算法优化到系统创新的全链路议题覆盖[4] - 前500名注册者中随机抽取50位幸运用户赠送《AI原生软件研发成熟度模型(AISMM)白皮书》首发纪念版[32]
“Linux真正的活不是我在干”,Linus爆料近况:近20年不做程序员、没碰过AI编程、压力全来自于“人”
AI科技大本营· 2025-11-22 18:00
行业技术趋势与公司战略定位 - Linux内核开发已持续35年,核心工作转变为长期维护和持续支持,而非开发新功能[8] - 行业硬件关注点从CPU转向Nvidia和AMD的加速处理器,但公司认为通用CPU仍是Linux的核心领域[17][18] - AI繁荣促使Nvidia等硬件厂商更积极地参与Linux内核开发,成为该领域的良好参与者[19] 技术采纳与开发流程演变 - 公司角色从主要说“不”转变为有时需要鼓励维护者对新想法说“是”,以打破墨守成规[9][10][11] - Rust语言引入内核已约三年,虽引发争议但正成为内核的一部分,进程比预期缓慢[12][13] - 内核开发流程过去15年保持稳定,每两个月发布一次版本,每次有上千人参与[16] AI技术对行业的影响 - AI在内核开发中的应用仍处于实验阶段,主要用于帮助维护者处理补丁流等辅助任务[21] - AI爬虫对kernel.org等开源基础设施造成严重干扰,并产生低质量的AI生成报告消耗维护资源[21] - 公司认为AI是类似编译器的生产力工具,不会取代程序员,反而可能开启新开发领域需要更多软件人才[25] 开发效率与工具演进 - 公司未使用AI辅助编程,认为内核复杂度高,AI生成的代码从维护角度看可能“糟糕透顶”[23][24] - Vibe Coding等AI编程工具让新人更容易参与编程,但正式产品开发中剩下的10%复杂工作仍需专业经验[24] - 行业生产力提升可通过更少人做同样事或现有人做更多事实现,工具改变工程师工作内容与系统交互方式[26]
18个月月收33万刀!起底“AI套壳”生意经:是昙花一现还是隐形金矿?
AI科技大本营· 2025-11-22 12:07
AI套壳应用的本质与争论 - 行业中存在对“AI套壳”应用的轻蔑评价,认为其缺乏核心技术、依赖巨人基础且具有脆弱性[1] - 另一种观点认为“万物皆是套壳”,OpenAI依赖英伟达算力和Azure云服务,Netflix依赖AWS基础设施,Salesforce本质上是Oracle数据库的高级外壳[2] - AI套壳应用通常指直接调用现成API(如OpenAI接口)、覆盖轻薄用户界面以提供特定功能的产品形态,开发过程极少涉及复杂底层技术攻坚[2] 功能型套壳应用的特性与风险 - 典型案例如早期“与PDF对话”应用,解决读不懂文档的痛点,但功能狭窄、缺乏粘性,属于一次性工具[3][5] - 这类应用本质是“能力”而非完整解决方案,极易被基础模型构建者(如OpenAI、Google)原生整合而失去存在根基[5] - 功能型套壳应用缺乏业务闭环和护城河,但短期窗口内可创造惊人财富,如PDF.ai月经常性收入达50万美元,PhotoAI达7.7万美元,Chatbase约7万美元,InteriorAI达5.3万美元,Jenni AI在18个月内月经常性收入从2000美元飙升至33.3万美元[6] 产品型套壳应用的生存挑战 - 部分套壳应用进化成真正产品,切入巨大市场,但面临模型访问权和分发渠道垄断两大威胁[7][8] - 代码助手领域(如Cursor)将AI深度集成到开发环境,重塑开发者体验,但严重依赖外部模型接口(如OpenAI、Anthropic)[9][10] - 模型厂商战略碾压风险显著,OpenAI首席执行官指出,95%的AI创业公司应押注模型持续改进,否则能力升级时将面临淘汰[10] - 分发渠道竞争残酷,独立工具需在巨头(如微软、Google、Adobe)整合AI功能前建立用户群,对抗捆绑销售优势和高切换成本[11] 利基市场中的机会与策略 - 商业生态长尾存在大量对风险投资规模太小但能支撑数百万美元业务的利基市场,如占星术、梦境解释等AI应用[14][15] - 专用应用程序可通过结构化数据捕捉(如梦境记录字段)和外部数据集成(如睡眠跟踪)构建完整工作闭环,避开大模型战略雷达[15] - 幸存企业需具备两大特征:嵌入用户工作流并控制结果主导权(如直接操作专有记录系统),以及从客户使用中构建专有数据(如用户修正、边缘案例处理)[17][18] - Cursor计划通过捕捉开发者行为模式优化产品,类似早期搜索大战中通过用户交互理解意图的模式[19] 套壳应用的长期生命力关键 - 批评者正确指出缺乏防御性的套壳应用将随平台功能吞噬而消失,捍卫者正确认为成功软件公司本质都“包裹”底层技术[20] - 真正具备生命力的套壳应用需栖息于用户实际工作场景、将数据写入专有记录系统、构建专有数据并持续学习,或在巨头捆绑前抢占分发渠道[21] - 快速迭代、持续交付解决用户痛点功能的产品极难被击败,划清“功能”与“产品”的界限[21]
还是谷歌懂程序员?Demis 采访首提“氛围编程”,Gemini 3 彻底戒掉“爹味”说教
AI科技大本营· 2025-11-21 18:03
文章核心观点 - 谷歌通过Gemini 3展示了其在AI模型性能与成本效率上的重大突破,标志着公司从防御姿态转向积极进攻[12] - 模型的核心优势体现在极致的推理成本控制、工具化定位以及推理能力等关键技术的显著进步[4][15] - 公司对AGI的实现路径保持清晰认知,认为仍需5-10年并依赖推理、记忆等领域的根本性突破[11][17][22] 模型性能与效率突破 - 通过极致的“蒸馏技术”将顶尖模型的运行成本大幅降低,使其能处理数十亿次日均搜索请求而不破产[4] - 公司在成本与性能的帕累托前沿保持领先,实现了“比我聪明的没我便宜,比我便宜的没我聪明”的竞争优势[5][6] - 模型效率的提升使得其能应用于“AI概览”等极端场景,服务数十亿用户,并为云客户和企业客户带来成本效益[22] 模型能力与交互体验 - 模型在推理能力上表现出色,能够同时思考多个步骤,避免了以往模型思绪断片或跑偏的问题[15] - 提供了全新的生成式界面,能真正给用户提供定制化的设计和答案,是创建新型交互界面方面最强的模型[15] - 模型风格更简洁、切中要点、更具表现力,采用“去人格化”设计,专注于成为高效的信息处理器和逻辑推理机[7][9][10][16] 技术发展方向与AGI路径 - 实现AGI预计仍需5到10年,并且可能需要一两个本质上的研究突破,而非仅靠堆算力和数据[11][17] - 下一阶段AI战争的主战场将围绕推理、记忆以及世界模型这三个关键领域展开[11] - 公司认为当前处于规模化基础模型持续进步的阶段,但要通往AGI仍需研究突破[22] 产品整合与市场战略 - 公司正将AI能力深度整合到现有产品矩阵中,包括地图、YouTube、安卓、搜索等,并以AI为先的视角重新构想这些产品[19] - 新产品如Gemini App、NotebookLM等AI原生产品,旨在让AI成为用户工具箱里的超能力工具,专注于任务完成[18] - 公司关注用户满意度等产品体验指标,并将基准测试的进步转化为有意义的产品体验[23] 行业竞争与市场定位 - AI领域处于极其惨烈的竞争环境,公司关注自身进步速度,并对其进展感到满意[19] - 公司不仅是AI研究的先驱,更致力于将研究成果转化到下游所有产品中,并认为在这场进化中才走到一半[19] - 行业部分领域存在泡沫迹象,但公司同时在投资未来蓝海领域如机器人、游戏、药物研发,并看好其长期潜力[25][26]
与C++之父面对面、共庆四十周年!直击AI算力、系统软件、研发智能化:2025全球C++及系统软件技术大会核心专题揭晓
AI科技大本营· 2025-11-14 13:55
大会概况 - 2025全球C++及系统软件技术大会将于12月12-13日在北京金隅喜来登大酒店举行 [1] - C++之父Bjarne Stroustrup将亲临现场,与全球顶尖专家探讨AI原生时代下系统软件新范式 [1] - 2025年是C++语言发布40周年,该语言正站在AI浪潮重塑世界的历史十字路口 [2] 现代C++最佳实践 - 专题聚焦语言演进背后的理念与实践路径,探讨工程思想的重塑 [5] - C++之父Bjarne Stroustrup将回顾四十年设计哲学与未来方向 [7] - 彭博John Lakos解析大规模软件架构工程化方法 [7] - 小米Vela框架负责人董俊杰展示现代C++在复杂系统中的落地价值 [7] - 彭博工程师团队分享C++反射核心原理实践与最新进展 [7] 大模型驱动的软件开发 - AI正推动软件开发从"自动化"向"智能化"深度变革,大模型成为开发者思维延伸 [11] - 未来软件开发趋势是"人机共建、智能驱动",而非单纯"AI辅助" [12] - CSDN李建忠提出AI原生软件研发成熟度模型,系统阐述研发体系向AI原生范式过渡 [11] - Adobe首席科学家David Sankel强调规避AI生成代码的真实风险 [11] - 腾讯云CodeBuddy、阿里Qoder CLI等产品展示大模型能力融入开发全流程的实践 [13] AI算力与优化 - 专题聚焦AI基础设施核心命题,从芯片层执行到系统级算力调度 [18] - 趋境科技杨珂分享"以存换算"哲学优化万亿参数模型推理 [20] - 清华大学展示面向异构计算的统一智能计算架构及开源生态 [20] - 系统内核专家张银奎剖析GPU对高效代码的独特理解 [20] - 智源研究院分享面向多元AI芯片的算子库与编译器实践 [20] 系统级软件优化 - 在AI与异构算力浪潮下,系统级软件面临高性能、高可靠性核心挑战 [22] - 中科加禾CEO崔慧敏解析编译技术在AI软件栈中的创新路径 [22] - vivo专家王骁分享端侧大模型部署中存储系统的优化实践 [24] - 阿里云内核专家邹涛解析系统级软件优化策略 [24] 研发效能与软件质量 - 研发效能与软件质量成为AI时代企业竞争关键抓手 [25] - Bloomberg分享大型工程体系中构建高质量软件的经验模型 [25] - Parasoft解析AI如何赋能测试生成、缺陷分析与质量预测 [25] - 京东零售介绍智能推理引擎在研发效能提升中的创新应用 [25] 高性能与低时延 - 高性能与低时延成为系统软件创新核心命题 [31] - 阿里云团队解析PolarDB在TPCC测试中实现性能突破的全链路优化策略 [31] - Linux内核维护者分享块设备缓存的高性能Btree索引设计 [31] - 快手编译优化专家介绍基于Profile的编译优化技术实践 [31] 并发与并行 - 并发与并行成为多核、异构与分布式计算时代性能提升关键支点 [36] - Incredibuild解析分布式缓存与任务切分实现上千核级别构建提速 [37] - C++标准委员会机器学习组主席分享并行计算在AI与系统软件中的最新进展 [37] - 上海人工智能实验室分享异构算力协同与高性能通信框架研究成果 [37]
宇宙尺度压缩:Scaling Law的边界,柏拉图表征收敛于物质和信息交汇,解决P与NP问题,Simulation假说……
AI科技大本营· 2025-11-13 13:59
科学多任务学习的突破 - 超对称公司在BigBang-Proton项目中成功实现了跨尺度、跨结构的科学多任务学习,验证了高度异质的数据集(如夸克衰变、材料结构、DNA序列、股价等)可以在正确的表征和架构上收敛[1][4] - 该进展突破了传统观点,即认为多学科数据差异过大无法一起训练,预示了跨学科数据在高维潜在空间中可产生迁移学习,为将宇宙视为统一实体进行训练扫清了障碍[2][4] - 公司将算术运算能力作为科学多任务学习的核心,因为实验结果主要呈数值形式,这一科研范式融合了还原论和涌现论[4] Scaling Law的扩展与柏拉图表征 - BigBang-Proton的预训练能够平滑收敛,表明大语言模型的Scaling Law可超越语言范畴,延伸至物理世界[5] - 研究引用了柏拉图表征假说,认为不同AI模型的表征空间会收敛到一个对现实映射的相近统计结果,而物质世界构成了这一理想化现实[6] - 公司提出预训练的极限是宇宙本身的极限,在整个宇宙历史和人类文明数据上预训练的单一模型将收敛到大爆炸时刻的基本物理定律及信息与物质的交汇点[7] 宇宙尺度压缩的构想与理论基础 - 公司提出宇宙尺度压缩构想,旨在将宇宙作为一个完整整体进行预训练,其收敛目标为基本物理定律[1][9] - 理论指出,在人类文明完整数据上训练的模型倾向于收敛到基本自然定律,而在宇宙演化数据上训练的模型倾向于收敛到基本物理定律[9] - 热力学熵与信息熵的相互转换以及流形假设为理解跨领域表征迁移提供了框架,宇宙尺度预训练中的低维结构可能收敛到基本的宇宙流形,并与全息原理一致[10][14] 物理前沿理论与技术实践 - 理论基础包括约翰·惠勒的"It from Bit"、贝肯斯坦边界和全息原理,指出在普朗克尺度下时空维度可能减缩,物质与信息可互相转换[15] - 宇宙尺度压缩是对"计算宇宙"和"模拟假说"的一次实践,通过自回归LLM对物质世界进行压缩,为模拟戴森球或近地轨道工业等远期目标提供了可行性[16] - 根据计算,宇宙最多可容纳约10^90比特的信息,在施加完整物理定律约束后,条件柯尔莫哥洛夫复杂度会急剧降低,LLM预训练扩展至宇宙尺度可能匹配宇宙的复杂性[19][20][21][23][24] 技术路径与潜在应用 - 宇宙尺度压缩计划包括建立统一的时空框架、整合所有科学理论和实验数据、以及从重子组分中重建地球和人类文明[25] - BigBang-Proton的创新方法论为此提供了支持,包括二进制块编码、理论-实验学习范式和Monte Carlo Attention机制,后者可提供与宇宙中重子数量相当的上下文长度[25] - 公司提出假设,仅通过"下一个词预测"即可从微观粒子尺度重建宇宙中的任何物理结构,并计划在单一BigBang模型中模拟大爆炸核合成、量子材料、虚拟细胞系统乃至机器人技术和飞机等复杂物理结构[28] - 该方法有望将具身智能的高精度环境与决策能力整合在同一隐空间,并可从原子尺度加速复杂装备(如飞机、汽车)的设计、生产和迭代[28]
李飞飞终于把空间智能讲明白了:AI 的极限不是语言,世界远比文字更广阔!
AI科技大本营· 2025-11-11 17:08
文章核心观点 - 当前人工智能的发展范式存在核心局限,过度依赖语言模型而缺乏对物理世界的理解,行业需要从“语言智能”向“空间智能”进行根本性的范式转换 [5][6][15] - 空间智能是人工智能的新疆界,其目标是构建能够理解、推理并与语义、几何、物理和动态上都极为复杂的真实或虚拟世界互动的“世界模型” [6][16][21] - 李飞飞及其创立的World Labs公司正致力于构建世界模型,其首个产品Marble已能通过多模态输入生成并维持一致的三维环境,为创意、机器人、科学发现等领域带来变革 [6][22][24][26] 空间智能的定义与重要性 - 空间智能是人类认知的脚手架,驱动着推理、规划以及与物理世界的互动,是想象力和创造力的基础 [10][12][13] - 当前最先进的多模态大语言模型在空间感知能力上存在根本性局限,其表现往往不比随机猜测好多少,无法有效估算距离、方向、尺寸或预测基本物理现象 [14][15] - 空间智能将连接想象、感知与行动,为机器在医疗健康、创意表达、科学发现和日常辅助等领域真正改善人类生活开辟可能 [15][24][29] 世界模型的技术框架与原则 - 构建具备空间智能的人工智能需要世界模型,其能力远非当今的大语言模型所能及,该领域尚处萌芽阶段,是未来十年最具决定性的挑战 [16][21] - 世界模型需具备三大基本能力:生成性(生成具有感知、几何和物理一致性的世界)、多模态(处理多种形式的输入)、交互性(能根据输入的动作输出下一个状态) [17][19][20] - 实现世界模型面临巨大技术障碍,包括需要定义通用的训练任务函数、利用互联网规模的图像视频数据作为训练材料、以及开发超越当前范式的新模型架构 [23] 空间智能的应用前景 - 在创造力领域,World Labs的Marble平台将为电影制作人、游戏设计师等提供前所未有的空间能力和编辑可控性,快速创建可完全探索的三维世界 [22][26][27] - 在机器人技术领域,世界模型将通过提供模拟数据和训练环境,规模化机器人学习,使其成为能在各种场景下协助人类的伙伴与协作者 [24][28][32] - 在更长远的未来,空间智能将深远影响科学、医疗和教育领域,例如加速药物发现、增强医学影像诊断、以及实现沉浸式学习等 [29][30]
AGI 新技术路线:下一代稀疏注意力机制 Monte Carlo Attention 开源
AI科技大本营· 2025-11-10 09:03
文章核心观点 - 超对称技术公司在新版基座模型 BigBang-Proton 中引入了创新的 Monte Carlo 注意力机制,该机制通过二进制块编码和块间代表交流机制,实现了线性计算复杂度,并兼具稀疏注意力、状态空间和线性注意力的优点,同时规避了它们的缺点 [1] - Monte Carlo 注意力机制旨在解决宇宙尺度科学建模所需的超长上下文长度问题,其有效上下文长度可随层数呈指数级增长,理论上可达 10¹⁵⁰ 级别,远超当前大语言模型 10⁵-10⁶ 的限制 [2][3][30] - 该技术突破了传统 Transformer 的 O(L²) 计算复杂度瓶颈,降低至 O(L),并消除了训练中对 GPU 内存的依赖,可能减少收敛所需训练步数,对现有预训练技术和硬件设计具有深远影响 [3][4] 技术架构与核心组件 - BigBang-Proton 架构由三个核心组件构成:Binary Patch Encoding 的嵌入输入、Monte Carlo Attention 以及前馈时序卷积网络 [7][8] - Binary Patch Encoding 的输入词汇表包含 0-255 的字节值和三个特殊 token,总大小为 259,每个输入 token 通过 one-hot 编码转换为 259 维稀疏向量后投影到稠密嵌入空间 [8] - 前馈时序卷积网络取代了传统的前馈全连接网络,以捕捉局部空间和时间模式,其固有的卷积特性使模型无需使用显式位置嵌入 [8][37] Monte Carlo 注意力机制原理 - 核心创新是块间代表交流机制:输入嵌入被分组为特定大小的块,每个块随机或选择性地指定一个字节作为代表,与其他块交换信息 [12] - 通过 Delegate 操作和序列重组,信息在全局范围内流动,而计算复杂度仅取决于块大小的平方 O(P²),而非序列总长度 [12][13] - 有效上下文长度的递归关系为 C(N) = (P-1) × P^N + C(N-1),当块大小 P=32 时,第 1 层上下文长度可达 992,第 2 层可达 32,736,层数加深后呈指数增长 [14][15][30] 与传统注意力机制的对比优势 - 与稀疏注意力相比,Monte Carlo 注意力通过基于重组的机制避免了信息丢失和选择偏差问题,实现了更优的上下文长度复杂度 [40][42] - 与状态空间模型相比,该方法通过直接的全局信息交换避免了线性时不变性约束、低秩近似相关的精度损失以及数值不稳定问题 [43][44] - 与线性注意力相比,Monte Carlo 注意力在增强的局部-全局上下文中进行精确计算,保持了完整的注意力表达能力,避免了核函数映射导致的信息丢失 [44][45] 性能与效率提升 - 计算复杂度从 O(L²) 降低到 O(L),对于 10⁸ 的上下文长度,在块大小为 4 时,计算量减少 99.99%,速度提升高达 195,313 倍 [4][34] - 该方法无须分阶段训练即可实现理论上无限的上下文长度,并能训练比设备内存容量长多个数量级的序列,缓解了传统的批次处理约束 [3][4] - 引入了循环 Monte Carlo Attention 来解决迭代表征传播过程中可能的信息退化问题 [33][41]
自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线
AI科技大本营· 2025-11-07 13:59
核心观点 - 超对称公司发布的BigBang-Proton基座模型挑战了以OpenAI为代表的主流AGI技术路线,提出并验证了通过“物质结构学习”实现AGI的第三条路径 [1][2][4] - 该模型通过三项根本性创新,实现了跨微观粒子到宏观地球系统的多学科科学问题在单一自回归LLM上的统一预训练和推理,展示了语言引导科学计算的能力 [2][26][80] - 实验结果表明,主流LLM(如GPT-5、DeepSeek-R1)在理解真实物质结构和执行专业科学任务上遭遇失败,而BigBang-Proton在多个科学任务上达到或接近专用SOTA模型水平 [2][36][44][54][59][66][71][72][74] 技术创新 - **二进制块编码**:彻底抛弃传统的BPE等分词器,将所有输入数据(文本、代码、科学数值)统一视为原始二进制序列进行处理,解决了数值保真和跨模态统一表征的难题 [9][11][14][37] - **理论-实验学习范式**:建立数值型实验数据与文本理论描述的混合表示和直接对齐,使模型能整合符号推理与数据驱动学习,覆盖90%以上的实验科研任务 [13][18][19][48] - **蒙特卡罗注意力机制**:替代传统Transformer注意力,通过分块代表交流机制,使模型有效上下文长度随层数指数级增长,20层即可实现10³⁰字节的上下文容量,为模拟复杂物质结构奠定基础 [19][22][23] 模型性能表现 - **算术运算**:在50位数加法、减法和12位数乘法任务中,准确率分别达到100%、98%和90%,显著高于DeepSeek-R1(19.23%、11.63%、9.68%)和ChatGPT-o1(3.85%、6.98%、3.23%)[36][37] - **粒子喷注分类**:在11类分类任务中达到51.29%的准确率,与专用SOTA模型(ParT的56.69%)差距仅4-5个百分点,而主流LLM准确率接近随机猜测水平(10%)[44][46][47] - **材料形成能预测**:实现0.043 eV/atom的平均绝对误差,在Matbench榜单排名第11位,优于部分专用机器学习方法,而主流LLM的预测误差与之相差四到五个数量级 [54][56] - **湖泊水质预测**:在叶绿素-a浓度预测中实现0.58 μg/L的MAE和0.098的MAPE,达到与行业领先机器学习时序预测模型竞争的水平 [59] - **基因组建模**:以1.5B参数和Evo模型三分之一的训练数据量,在评估困惑度(2.8 vs 3.1)及预测突变对蛋白质功能影响(斯皮尔曼相关系数0.78546 vs 0.67)等多项任务上超越SOTA生物基座模型Evo [66][71][72][74] 行业影响与未来规划 - **挑战主流AGI路线**:指出仅依赖长程思维链和互联网自然语言数据无法实现AGI,提出LLM预训练应进入物质世界,其边界将扩展到全宇宙 [2][4][5][80] - **提出宇宙尺度压缩构想**:目标是在一个二进制序列中重建物理世界,将全宇宙的信息转为超长序列压缩到单一基座上,为所有AI分支任务提供基座 [5][81][82] - **广泛产业合作与应用**:模型正与中国高能物理所、强磁场中心、南京大学、上海交大等机构合作,应用于粒子对撞、核聚变、高温超导、虚拟细胞、地球系统建模及飞行器设计等前沿领域 [82][83]
“你们尽管做空 OpenAI!”奥特曼霸气喊话,纳德拉亲述微软百亿投资内幕 | 巨头对话
AI科技大本营· 2025-11-03 14:51
微软与OpenAI合作关系 - 微软对OpenAI的总投资额约为130-140亿美元,获得完全稀释后公司27%的股权 [11] - 双方合作协议包括模型独家授权和收入分成,核心服务的"无状态API"在2030年前独家保留在Azure上 [15] - 收入分成协议将持续到2032年或AGI被验证实现,OpenAI需向微软支付其收入的一部分 [16] - 合作关系被评价为"科技史上最伟大的合作之一",微软早期的远见和支持是关键 [12] 算力投资与战略 - OpenAI计划未来四五年内在算力上投入1.4万亿美元,其中明确承诺5000亿给英伟达,3000亿给AMD和甲骨文,2500亿给Azure [19] - 当前增长的主要瓶颈是算力不足而非过剩,过去一年算力扩展了10倍,但若能再增加10倍算力,收入增长将接近同等幅度 [22] - 供应链的最大问题不是芯片供应,而是电力短缺以及无法在靠近电源的地方快速完成数据中心建设 [25] - 算力需求与单位成本紧密相关,若单位智能的算力成本下降100倍,使用量增长将远超100倍 [23] 商业模式与收入预期 - OpenAI当前年收入被报道为130亿美元,但公司表示实际收入"远不止那个数",并预期收入将急剧增长 [20] - 公司对成为重要的人工智能云服务商、发展消费级设备业务以及自动化科学研究创造价值充满信心 [20] - 微软作为合作伙伴,从未见过OpenAI提交的任何一份商业计划是他们没有超额完成的,对其商业执行力表示高度认可 [21] 技术发展与应用前景 - AGI的实现将触发合作协议的提前终止,双方建立了由专家小组裁决AGI是否达成的流程 [16][17] - 展望2026年,AI任务将从持续数小时升级到持续数天,AI有望做出全新的科学发现,这被视为超级智能的标志 [34] - 正在开发新形态的计算设备,旨在实现更好的情境感知和"宏观授权、微观引导"的工作流程 [36] - 编程领域将发生变革,AI将帮助以前所未有的速度和方式创造软件,GitHub在AI助力下过去一年完成的工作量相当于其过去10-15年的总和 [58] 行业影响与价值链重塑 - 在智能体时代,传统商业应用(CRUD数据库+业务逻辑)的存在概念可能全部瓦解,业务逻辑将转移到智能体上 [55] - 智能体被视为新的"席位",将成为企业商业化的新路径,企业端的商业化路径比消费者端更清晰 [63] - 超大规模云服务商的核心竞争力在于能以最高利用率运行异构算力集群,这并非简单的服务器连接 [60] - 下一代SaaS应用必须是低每用户平均收入(ARPU)、高使用率的模式,高ARPU、低使用率的应用将面临麻烦 [58] 市场地位与竞争格局 - 微软Azure本季度在930亿美元营收基础上增长39%,增长率高于谷歌云(32%)和AWS(接近20%) [51] - 微软拥有4000亿美元的剩余履约义务(RPO),平均履约周期为两年,为产能建设提供了高确定性 [51] - 在规模效应下,没有什么是真正的商品,超大规模云服务商能通过成本结构和软件效率的复合增长保持利润 [53] - 微软超过一半的业务是软件应用,其产品组合(GitHub Copilot、Microsoft 365 Copilot等)构成了全球最大的人工智能产品矩阵 [43]