Workflow
深度学习
icon
搜索文档
奥特曼和纳德拉,艰难重组后首次对谈:「我们是天作之合」
36氪· 2025-11-03 08:23
微软与OpenAI合作关系 - 双方庆祝达成一项里程碑式的深度合作协议,旨在重塑AI未来 [3] - 合作关系始于2019年微软对OpenAI的10亿美元投资和Azure云计算资源支持 [5] - 微软首席执行官纳德拉慧眼识珠,看到了自然语言处理技术的新曙光 [7] OpenAI公司重组与治理结构 - OpenAI完成重组,在非营利基金会下设立OpenAI集团公共利益公司作为营利实体 [8] - 非营利的OpenAI基金会持有价值高达1300亿美元的OpenAI股份,成为全球最大慈善基金之一 [10] - 基金会将首批动用250亿美元资金投向医疗健康和AI安全韧性两个领域 [10] 微软的投资与战略回报 - 微软目前持有OpenAI约32.5%的股份,价值约1350亿美元 [15] - 双方关系已成长为业界最成功的合作伙伴关系之一 [17] - OpenAI创始人希望微软能从这笔投资中赚到一万亿美元 [18] 产品与市场独家安排 - OpenAI最强大的通用人工智能模型API将在未来七年内独家部署在微软Azure云平台上 [19] - 此项独家安排将持续到2032年,除非OpenAI率先实现AGI [19] - 该策略使Azure成为AI开发者的“圣地”,直接推动微软云服务业务腾飞 [20] 财务业绩与增长前景 - 微软2025财年第一季度智能云部门收入同比大涨27%,Azure增速远超主要竞争对手 [20] - 微软商用云业务手握3920亿美元的未完成订单,同比增长51% [20] - 其中包括OpenAI与微软签下的2500亿美元Azure预购合同 [20] 算力供应与需求瓶颈 - 双方均表示面临严重的算力短缺问题,限制了业务增长 [24][25] - 微软上季度资本开支高达349亿美元,较前一季度猛增40%,主要用于数据中心和AI芯片 [26] - 未来两三年内AI算力仍将严重紧俏,出现“算力过剩”的概率几乎为零 [28][29] AI对软件行业的范式影响 - AI正在重塑软件形态,从App转向Agent,能理解自然语言指令并执行任务 [34] - 传统商业软件可能被多才多艺的AI助手重构,微软主动为Office注入AI推出Copilot [36] - 在消费互联网领域,AI对话式交互对传统搜索的流量和广告曝光构成分流风险 [37] AI驱动的生产力提升 - AI将开启生产力爆发,微软过去一年几乎零净增员工数,却实现营收两位数增长 [44][46] - 员工借助内部Copilot大幅提高效率,公司通过网络运维自动化替代了大量人力需求 [47][48] - 经过适应期,企业将迎来既增收又节支的局面,推动宏观经济劳动生产率和GDP增速提升 [51][52] AI对美国制造业的影响 - AI需求正吸引资本重新投入制造业和基建领域,为传统工业中心注入新活力 [55][57] - 微软在威斯康星州豪掷73亿美元兴建全球最大数据中心园区,带动本地就业和投资 [56] - 美国的云计算龙头公司在全球输出技术,帮助各国建设数字基础设施,占据产业制高点 [59] 合作关系的战略意义 - 合作结合了OpenAI的创新激情与微软的产业落地能力,迸发出惊人能量 [60] - 双方共同开发ChatGPT引爆全球AI热潮,并将深度学习技术带入寻常百姓家 [62] - 合作关系证明了理想主义与实用主义结合的可能性,既关乎利润更关乎人类福祉 [64]
端到端和VLA,这些方向还适合搞研究
自动驾驶之心· 2025-11-03 08:04
可以看出来, 无论技术路线怎么变,深度学习都一直存在 。 这也给 广大想要在这个技术飞快发展,担心随时被淘汰的"牛马"一个提示,学它! 不仅要学前沿理论和技术,还要学底层的基础理论,锻炼自己的代码能力 ,为了帮大家快速入门端到端和VLA,真正搞懂如何设计自己的端到端模型 , 我们联合了工业界和学术界的大佬开展了 《智驾升维——大 模型驱动的端到端之路》。 双十一特价优惠, 1.98 元 享试看 自驾 VLA 尖端课题组三节 自动驾驶领域,技术路线从开始基于规则的时期,逐渐转变为行业量产的以理想、小鹏等新势力智驾为代表的 端到端到VLA范式转变 时期 ,现阶段 来到以蔚来为代表的 世界模型时期 。 课程介绍 从模块化的量产算法发展到端到端,再到如今的VLA。核心算法涉及BEV感知、视觉语言模型VLM、扩散模型、强化学习、世界模型等等。 通过学习能够掌握端到端技术框架,对BEV感知、多模态大模型、强化学习、扩散模型等关键技术有更深刻的了解; 可复现扩散模型、VLA等主流算 法框架;能够将所学应用到项目中。 大部分同学反馈学完全部课程后能够达到 1年左右端到端自动驾驶算法工程师水平 ,无论是实习、校招、社招都能从中 ...
Meta裁员、OpenAI重组:万字复盘谷歌起笔的AI史诗,如何被「群雄」改写剧本?
机器之心· 2025-11-02 09:37
AI行业格局转变 - AI行业正从“无限淘金热”转向残酷的“阵地战”,资本开始重新评估价值,巨头们审视成本与效率 [1] - Meta FAIR部门遭裁员、OpenAI进行资本重组、AWS大裁员等一系列动荡表明行业进入新阶段 [1] 谷歌的AI基因与早期探索 - 人工智能是谷歌从诞生之初的核心理念,受创始人Larry Page父亲(早期机器学习教授)的影响 [5][9] - 2000年Larry Page断言人工智能将是谷歌的终极版本,终极搜索引擎就是人工智能 [9] - 谷歌起家的PageRank算法运用统计方法排序网页,带有早期AI思想印记 [10] - 2000年末工程师提出“压缩即理解”理论,探索语言模型和机器理解,这是现代LLM思想的早期体现 [12] - 研究成果直接应用于谷歌搜索的拼写纠错功能,并开发了消耗数据中心整体资源15%的语言模型PHIL [14][16] - PHIL在2003年被用于快速实现AdSense系统,为谷歌带来数十亿美元新收入 [15] 深度学习革命与谷歌的拥抱 - 2007年Geoff Hinton将深度学习火种带入谷歌,当时神经网络正被学术界边缘化 [20] - 谷歌的统计方法本身是对僵化专家系统的反叛,为结合深度学习奠定基础 [21] - 2011年吴恩达、Jeff Dean等发起Google Brain项目,目标构建大规模深度学习模型 [27] - Jeff Dean主导开发DistBelief分布式计算系统,采用有争议的异步更新参数方式但被证明高效 [28][29] - Google Brain的“猫论文”实验使用16000个CPU核心训练,神经网络自主学会识别猫脸 [30] - “猫论文”证明无监督学习能力,催生YouTube算法推荐时代,驱动数百亿乃至数千亿美元产业价值 [32][33][34] 关键突破与硬件变革 - 2012年AlexNet在ImageNet竞赛中将错误率从25%以上降至15.3%,提升超过40% [35][37] - AlexNet创造性使用NVIDIA GPU进行并行训练,确立GPU作为AI计算核心硬件的地位 [39] - 谷歌因应算力瓶颈,自研专门用于神经网络计算的TPU芯片,15个月内完成设计到部署 [62][63] - TPU针对矩阵运算优化并采用低精度计算,为谷歌提供成本优势和战略自主权 [63] 人才争夺与实验室建立 - 谷歌以约4400万美元收购AlexNet核心团队DNN Research,被认为是史上最划算交易之一 [41][42] - 2013年扎克伯格力邀Yann LeCun建立FAIR实验室,采用开放研究模式 [43][45][47] - FAIR为Meta提供核心技术、开源工具PyTorch以及Llama系列开源模型 [48] - 2014年谷歌以约5.5亿至6.5亿美元收购DeepMind,但其后与Google Brain存在内耗 [56][57] - DeepMind在AlphaGo项目中击败李世石,并将谷歌数据中心冷却能耗降低40% [58] OpenAI的崛起与转型 - 2015年因马斯克对谷歌垄断的担忧,联合Sam Altman创立OpenAI,获10亿美元初始承诺 [64][65][68] - Ilya Sutskever被使命吸引离开谷歌加入OpenAI,尽管Jeff Dean提供双倍薪酬反聘 [66] - 2018年OpenAI因资金压力重组,设立利润上限子公司并获得微软10亿美元投资 [86][87] - OpenAI转型开发GPT系列模型,GPT-3展现出惊人能力,GitHub Copilot成为首个大规模落地产品 [90][91] - 2021年Dario Amodei因安全与商业化分歧带领核心成员出走,创立Anthropic [92][95] Transformer架构与新时代 - 2017年谷歌发表《Attention Is All You Need》论文,提出Transformer架构 [74][76] - Transformer解决RNN/LSTM序列处理难题,具备高度并行化优势 [76] - 架构展现出“更多数据+更大模型+更多算力≈更好智能”的可扩展性 [80][81] - 谷歌允许论文公开发表,将“钥匙”交给全世界,包括潜在竞争对手 [84] - 论文八位作者后来相继离开谷歌 [84] ChatGPT冲击与谷歌反击 - 2022年11月ChatGPT发布,一周用户破百万,两个月破亿,成为史上增长最快消费应用 [97] - ChatGPT成功震醒谷歌,Sundar Pichai拉响“Code Red”红色警报 [99] - 微软迅速追加100亿美元投资OpenAI,并发布新版Bing搜索引擎直指谷歌核心业务 [99] - 谷歌仓促推出Bard但出现事实错误,促使公司进行大刀阔斧改革 [102][103] - 2023年谷歌合并Google Brain和DeepMind,组建统一Google DeepMind部门由Demis Hassabis领导 [105][106] - 谷歌All in Gemini项目,集中精英力量开发统一多模态旗舰模型系列 [105][106] - Gemini系列快速迭代,Gemini 2.5 Pro成为顶尖模型,并整合进搜索等产品 [107] - Google DeepMind在AI for science领域突破,AlphaFold 2解决蛋白质折叠问题,团队获2024年诺贝尔化学奖 [107][108] 当前竞争格局 - 谷歌一度受大公司体制束缚将王牌拱手让人,OpenAI成为最具实力玩家之一 [109] - Meta曾稳坐开源王座,如今在军备竞赛与成本效益平衡中艰难变革 [109] - 中国AI力量异军突起,DeepSeek、Qwen、Kimi等奋力追赶 [109] - 行业没有永远王者,巨头霸权可能被自身问题拖垮,后起之秀威胁迫近 [110]
一名科学家试着成为更好的CEO |WAVES
36氪· 2025-10-31 01:42
袁进辉坦言,过去的屡败屡战都是自找的。在被光年之外并购前,OneFlow始终挣扎在生死线边缘,最 困难的时候选择了降薪、减员。他后来补充说,整个OneFlow六七年都是这样的状态。 文 | 施嘉翔 编辑 | 刘旌 袁进辉和OneFlow一度是ChatGPT爆发后最走运的那个: 在王慧文发布"英雄帖"后,OneFlow被光年之 外并购,这家成立6年的公司一跃成为牌桌上资源最好的团队。 但仅仅两个月后,一切又戏剧化地烟消 云散。 在聚光灯下经历跌宕起伏的四个月后,袁进辉和OneFlow团队决定重新创业。从有全行业最充沛的资 源,到突然消失,而其他玩家已经身处高位,心理冲击毋庸置疑。但袁进辉说,若仍想留在牌桌上,再 创业是唯一选择。 原因在于,王慧文生病的消息传出后,有公司冲到光年之外办公室挖人,OneFlow骨干成员也接到过超 千万的年薪,但没有一家公司能同时留住所有人。创业是避免团队被肢解的唯一方法。 在光年之外以前,袁进辉的创业同样起伏。和大部分公司不同,OneFlow成立之初就像实验室,前四年 没有任何收入,依赖外界投入。他们在做的事情在当时听起来匪夷所思:颠覆巨头重金投入的深度学习 系统框架( 比如Goo ...
参数空间对称性:深度学习理论的统一几何框架
机器之心· 2025-10-29 17:25
文章核心观点 - 深度学习模型的有效性部分源于神经网络参数空间中广泛存在的对称性,即大量不同的参数配置可实现相同的模型函数 [2] - 参数空间对称性为理解深度学习的优化动态、损失地形和泛化性能提供了统一的数学框架和几何视角 [2][6] - 对称性研究正从理论概念转化为可操作的算法原则,影响优化方法、模型融合及权重空间学习等多个领域 [31] 参数空间对称性的定义与类型 - 参数空间对称性是指保持神经网络损失函数不变的参数变换,数学上表示为 L(g·θ) = L(θ),这些变换构成一个群并在参数空间中定义等价轨道 [6] - 离散对称性如神经元置换对称:交换隐藏层中两个神经元及其关联权重,网络函数保持不变 [4][6] - 连续对称性如ReLU网络的缩放对称和自注意力机制的一般线性对称,可将孤立极小值点拉伸成连续的平坦流形 [7][8][10] 对称性对损失地形的影响 - 连续对称性导致损失地形中出现平坦的极小值流形,沿此流形移动损失值不变,这意味着许多平坦方向由结构对称性决定而非泛化能力 [10][13] - 离散对称性会在参数空间复制大量功能相同的极小值副本,使极小值数量随网络宽度呈阶乘级增长 [13] - 对称性天然创造连接功能等价参数的连续路径,这解释了独立训练模型间观察到的模式连通性及模型融合的有效性 [10] 对称性在优化算法中的应用 - 对称性导致等损失点可能对应不同的梯度和训练轨迹,为算法设计带来新可能 [15][16] - 一类优化方法主动利用对称性在等价轨道中寻找梯度更优的点以加速收敛,另一类方法追求对称不变性使优化结果对初始变换不敏感 [16][19] - 对称性成为理解和改进优化算法的重要线索,其应用思路分为利用自由度和约简冗余两种 [19] 对称性与学习动力学 - 连续对称性对应训练过程中的守恒量,类似物理中的诺特定理,这些量在梯度流中保持恒定 [21][22] - 守恒量如线性网络中相邻层的Gram矩阵差、ReLU网络中输入输出权重的范数差,揭示了训练稳定性并帮助解释优化的隐式偏置 [22][23] - 不同的初始化对应不同的守恒量值,从而影响最终收敛点和泛化性能,参数空间的对称结构决定了学习轨迹与结果的统计分布 [23][25] 跨空间的对称性联系 - 参数空间对称性与数据空间和内部表征空间的对称性紧密相连,当数据分布具有对称性时,模型参数会继承这些结构 [27][28] - 在权重空间学习等新兴方向中,对称性成为新的数据结构,支持等变元网络在模型性质分析、生成及优化权重更新等任务中的应用 [28][29] - 等变元网络可直接在模型权重上进行学习,用于预测模型泛化能力或生成满足特定特征的新模型 [29]
1.4万亿投资、GPT-6、IPO进程,奥特曼回应“新OpenAI”的一切:1小时实录精华版
36氪· 2025-10-29 15:02
公司资本结构与治理 - 公司完成近一年的资本重组,为首次公开募股奠定基础,旨在筹集巨额资金支持算力投入和科研计划[2] - 重组后,非营利性的OpenAI基金会仍实际控制公司,持有营利部门OpenAI集团公共利益公司26%股权,按公司5000亿美元估值计算价值约1300亿美元[2] - 微软成为公司第一大股东,持有约27%股权,价值约1350亿美元;员工及早期投资者通过员工持股载体共持有约26%股权,价值约1300亿美元[5] - 2025年新一轮融资投资者占15%股权价值750亿美元,2024年融资投资者占4%股权价值200亿美元,IO投资者占1%股权价值100亿美元,早期投资者占约1%股权价值约50亿美元[5] - 重组将此前投资转为普通股权,解除投资者潜在收益上限,同时确保非营利方在安全和治理等关键事务上保持监督权[2] - 公司首席执行官山姆·奥特曼不持有公司股份,但他投资了与公司有合作关系的其他公司[5] 战略合作与商业协议 - 公司与微软就合作架构达成新协议,承诺向微软追加采购2500亿美元的Azure云计算服务[5] - 微软对公司模型和产品的知识产权授权延长至2032年,其中包含了通用人工智能实现之后的模型[5] - 微软现在可以独立或与第三方合作推进通用人工智能,而公司也可以与第三方联合开发某些产品[5] - 公司仍是微软的前沿模型合作伙伴[5] 财务状况与资金需求 - 公司资金需求巨大,预计到2029年,现金消耗将超过1150亿美元,这是考虑进入公开市场筹资的主要原因[6] - 公司已承诺建设的基础设施总量略超30吉瓦,未来数年内将承担约1.4万亿美元的总财务责任[23] - 基于当前行业前景预测、收入增长预期及融资能力考量,1.4万亿美元是现阶段能够从容应对的规模[24] 研究与发展蓝图 - 公司研究计划的核心支柱包括:构建通用人工智能所需的研究、打造便捷强大的使用平台、建设足够的基础设施以低成本提供AI技术[8] - 深度学习系统可能不到十年就能实现超级智能,即在众多关键维度上超越全人类的智能系统[10] - 公司正致力于培养能够加速研究进程的高水平AI科研助手,目标在明年九月前实现;并计划在2028年3月前开发出能够自主完成大型科研项目的全自动化AI研究员[12] - 预计在2026年推出的模型将开始取得微小突破,到2028年可能实现中等规模甚至更重大的科学发现[32] 技术架构与产品战略 - 公司整体技术架构底层是芯片组、机架、数据中心及能源支撑,之上训练模型并构建开放平台[9] - 公司推出了名为Atlas的浏览器,未来几年还将推出便携设备,并拥有少量第一方应用如ChatGPT和Sora,未来会持续增加[9] - 公司正从传统实践方式向平台化演进,目标是让他人能够基于其平台构建应用,期望平台上的开发者创造的价值超过平台构建者[21][23] - 预计六个月内甚至更早,各项能力都将实现巨大飞跃,但不再将产品与研发计划紧密绑定,具体命名尚未确定[46] 基础设施规划 - 公司愿景是打造一个基础设施工厂,实现每周生产1吉瓦计算设备的目标,期望在五年设备生命周期内将每吉瓦的成本控制在约200亿美元[24] - 实现该目标需要大量创新与合作伙伴关系,以及可观的营收增长,公司将把对机器人技术的研发思路转向数据中心建设领域[24] - 公司正与AMD、博通、谷歌、微软等企业合作,但强调仍处于早期阶段[24] 安全与治理框架 - 公司将安全视为多维度问题,思考框架划分为五个层级:价值对齐、目标对齐、可靠性、抗干扰鲁棒性、系统安全性防护[13][14][15][16][17] - 公司正大力投入思维链忠实度这一可解释性新方向,旨在让模型的内部推理过程更真实地反映实际思维过程[17][18] - 非营利组织OpenAI基金会将负责管理公益公司,初期持有约26%股权,并唯一资助科学研究领域,首战将投入250亿美元致力于运用人工智能攻克疾病及加强人工智能韧性建设[25][27] - AI韧性范畴比传统AI安全更广泛,旨在建立应对先进AI风险的快速响应机制和生态系统[28][31] 产品路线图与用户关怀 - 公司目前没有关闭ChatGPT-4o的计划,希望用户能够自由选择偏好的模型[35] - 预计12月发布包含NSFW标签的成人模式,并对创作内容启用触发过滤器,但发布时间可能调整[44] - 公司承认模型升级过程中存在不足,未来将努力提升功能延续性,确保模型能服务好大多数用户[41] - 公司认为交友与“自我反思”是AI应用的绝佳场景,并将推出相关ChatGPT版本[42]
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
数字生命卡兹克· 2025-10-29 09:33
OpenAI昨天晚上9点,公布了一个消息。 这个事,影响还蛮大的,基本代表着,OpenAI在开始准备上市了。 然后,奥特曼也非常临时的宣布了重组的消息,以及,北京时间凌晨1点半,开始直播。 整体直播了将近1个小时,一直到凌晨2点半。 这次能感觉到,奥特曼和现任首席科学家Jacob几乎没啥准备,很多时候真的就是临场发挥,然后看评论,回答问题,两人都显得还挺疲惫的。 我也通宵整理了直播中间提到的所有信息,再结合OpenAI最近的一些动向,内容其实还是挺多的。 不过,在说直播之前,还是得说一下这次整体的引子,也是一切的源头。 就是OpenAI,历经将近一年,终于完成了重组。 这其实是2024年12月他们提的一项重组计划,那时候, OpenAI 试图将有限盈利子公司从非营利母公司的直接控制中释放出来,让 非营利组织 将出售控制权换取大笔股权,转而成为主要股东和慈善实体,从而使OpenAI转变为一个可以自由增发股票、IPO上市的公司 。 对OpenAI历史有了解的朋友可能都知道,OpenAI其实是纯粹的非营利 非机构 起家,2015年的时候奥特曼和马斯克等巨佬们一起创立的,目标 是,"确保通用人工智能(AGI)造福全人 ...
2025年世界科技与发展论坛举行 百度吴甜:深度学习是人工智能关键核心技术
搜狐财经· 2025-10-28 13:26
深度学习平台的核心作用 - 深度学习平台是人工智能关键核心技术,下接芯片,上承大模型和应用,支撑AI的开发、训练、推理部署及产业落地 [1][3] - 以百度飞桨为例,该平台已适配60多款系列芯片,开发者创建超过110万个模型 [3] - 平台通过与大模型的联合优化实现性能突破,例如在ERNIE-4 5-300B-A47B模型上实现预训练MFU达47%,并在特定时延条件下实现高吞吐性能 [3] 文心大模型的技术进展与性能 - 文心大模型始于2018年底研发,2019年发布1 0版本,2025年已迭代至文心4 5 Turbo和文心X1 1等多个版本 [4] - 在中文多模态视觉语言模型测评基准SuperCLUE-VLM上,文心4 5 Turbo总分并列国内第一;文心X1 1在中文精确指令遵循测评中两类划分均为国内第一 [4] - ERNIE-4 5的衍生模型如PaddleOCR-VL、ERNIE-4 5-21B-A3B-Thinking等多次登上Hugging Face全球模型总趋势榜第一 [4] 产业智能化应用案例 - 在智能制造领域,中车集团基于飞桨将高铁外形仿真设计周期由天级缩短至秒级 [5] - 在智慧能源领域,基于文心和飞桨打造的电网智能体实现对600+厂站、90+断面的监控,完成全流程智能决策 [5] - 在智慧医疗领域,AI应用于病情收集、病历整理等环节,优化患者体验并提升医生效率 [5] 数字人技术的商业价值 - 百度自研的数字人技术包含五项创新,实现了数字人神、形、音、容、话的高度统一 [6] - 公司已助力打造超过10万数字人主播,直播转化率提升31%,开播成本下降80% [6] - 数字人直播展现显著商业价值,例如罗永浩数字人直播首秀GMV突破行业纪录,部分品类带货量超过真人直播 [6] 开发者生态与产业影响 - 飞桨文心开发者数量已超过2333万,服务企业超过76万家 [6] - 人工智能基础技术底座正助力千行百业提效降本、增强企业经营与决策能力 [4][6] - 技术革新驱动应用创新,进而转化为实际商业价值,推动产业向更高级形态转型升级 [6]
Yoshua Bengio,刚刚成为全球首个百万引用科学家!
机器之心· 2025-10-25 13:14
文章核心观点 - Yoshua Bengio成为Google Scholar上首位引用量超过100万的计算机科学家,其引用量达1,000,244次,这标志着人工智能领域从理论走向现实的二十年发展历程[1][7][48] - Bengio的学术成就与AI技术的发展曲线高度重合,其百万次引用是对AI改变世界的波澜壮阔历史的铭刻[5][7] - 作为深度学习领域的奠基人之一,Bengio在推动技术进步的同时,也积极承担社会责任,成为AI伦理与安全的重要倡导者[8][18][47] 学术成就与引用数据 - Yoshua Bengio的Google Scholar总引用量为1,000,244次,其中自2020年以来的引用量为723,853次,h-index为251,i10-index为977[1] - 其引用量最高的论文《Generative Adversarial Nets》被引104,225次,与Hinton、LeCun合著的《Deep learning》被引103,249次,两篇论文合计贡献了其总引用量的五分之一以上[1][21][33] - 引用量超过1万次的论文或著作有19篇,超过1000次的有96篇[21][34] - 深度学习“三巨头”中,Geoffrey Hinton和Yann LeCun的引用量分别为972,453次和约43万次[2][3] 关键技术贡献 - 2014年与Ian Goodfellow等人共同提出生成对抗网络,通过生成器与判别器的对抗训练框架开创了生成式AI的重要分支[24][25] - 2003年发表《A Neural Probabilistic Language Model》,首次引入“词嵌入”概念,为现代语言模型如BERT、GPT奠定基础[18] - 1997年与合作者引入长短期记忆网络,提升了神经网络处理序列数据的能力,为自然语言处理革命奠定了基础[18] - 2009年发表《Learning Deep Architectures for AI》,系统阐述深度学习理论,为训练更深层网络铺平道路[18][34] 行业影响与地位 - 与Geoffrey Hinton、Yann LeCun共同获得2018年图灵奖,被誉为“深度学习三巨头”,推动了AI技术从边缘走向世界中心的爆发[8][45] - 选择扎根蒙特利尔而非加入硅谷巨头,领导蒙特利尔学习算法研究所成为全球领先的AI研究机构,将蒙特利尔打造成全球AI中枢[16][17] - 其学术引用增长曲线与AI技术爆发曲线完美重合,百万次引用成为AI领域发展的里程碑事件[5][7] 当前研究动态与社会责任 - 现年61岁仍持续以第一作者身份发表研究,2025年在Science发表《Illusions of AI consciousness》并领导撰写AI安全国际报告[36][37][38] - 积极倡导AI伦理与安全,推动《蒙特利尔AI负责任发展宣言》,支持禁止“致命性自主武器”的国际条约,呼吁对强大AI系统建立监管护栏[18][19][27] - 发起非营利组织LawZero,旨在构建能够检测和阻止自主智能体有害行为的“诚实”AI系统[20][27]
百亿私募再破百家:这次有何不同?
21世纪经济报道· 2025-10-23 23:05
21世纪经济报道记者李域 实习生陈丽华 中国私募基金行业蓬勃发展,百亿私募作为行业头部力量,一直备受市场关注。 私募排排网最新数据显示,截至2025年10月22日,百亿私募数量突破至100家,较9月底的96家新增4家。其中上海新方程私募、望正资产、旌安投资为再次 回归百亿阵营的熟面孔,大道投资为首次新晋的百亿私募。 多位业内人士认为,A股市场企稳回升,权益类资产收益提升,带动私募产品业绩与规模同步上升。据统计,2020年、2021年、2022年、2023年、2024年, 存续备案的百亿证券私募管理人数量依次为71家、107家、113家、104家和89家。 值得关注的是,2023年末的104家百亿私募中,百亿量化私募33家,百亿主观私募58家,混合策略私募13家。而此番再次破百,量化私募数量占比居首,共 46家,主观私募紧随其后,共44家,混合策略私募8家。 数量占比持续上升,一方面是因为百亿量化私募在收益端展现出压倒性优势,前三季度38家有业绩展示的百亿量化私募平均收益率达31.90%,较19家百亿 主观私募24.56%的平均收益率高出7.34个百分点。另一方面,策略持续迭代与风控体系升级进一步增强了量化私募 ...