扩展定律
搜索文档
英伟达早不靠GPU躺赢!黄仁勋终极预判:10亿程序员时代将至,AI智能彻底廉价
AI前线· 2026-03-25 16:34
NVIDIA的战略转型与公司定位 - 公司从图形芯片厂商转向计算平台公司,二十年前押注CUDA生态于GeForce GPU是关键战略转向,当时承担了巨大财务风险,市值一度从约六七十亿美元跌至15亿美元左右 [3][21][25] - 公司当前业务定位为“AI工厂”的构建者,站在新一轮经济基础设施的核心位置,目标是从“基于检索的文件系统”世界转向“基于生成的上下文系统”世界 [3][7][82] - 公司领导者认为达到十万亿美元市值是可能的,因为AI正将计算机从“仓库”变为创造价值的“工厂”,世界将需要大量AI工厂来生产智能产物(token) [3][7][82][83] AI行业的发展趋势与扩展定律 - AI扩展定律远未到尽头,正沿着预训练、后训练、测试、智能体系统四条路径推进,增长重点转向推理、强化学习和智能体协作 [3] - 未来AI迭代的核心燃料将大量来自AI自身产生的合成数据,人类直接生成的数据占比会越来越小 [3][29] - 智能体扩展是下一个规模定律,智能体通过派生大量子智能体来工作,产生数据并形成持续改进的循环 [30][31] - 决定智能上限的最终因素是计算能力,而非数据 [29][32] 技术战略与产品设计理念 - 公司产品设计从芯片级转向机架级和系统级,致力于“极致协同设计”,以解决单台计算机或单颗GPU无法解决的问题,追求超线性性能提升 [4][10] - 硬件布局必须超前,AI模型架构约每六个月重大迭代一次,而系统与硬件架构更新周期长达三年,公司通过自研模型、追踪行业难题来保持架构快速迭代 [4][34] - 设计追求“系统必须复杂到刚刚好,但要尽可能简单”,并采用第一性原理思维,追问每项任务的“理论极限” [6][58][63] - 能源效率(每瓦每秒产出的token数量)是AI工厂收益能力的核心,公司通过系统级协同设计在过去十年实现了百万倍级别的性能提升,远超摩尔定律的100倍 [42] 供应链管理与生态构建 - 供应链管理是重中之重,公司需要说服上下游合作伙伴(如DRAM、台积电、ASML)提前进行巨额资本开支,以适应未来需求,例如三年前推动HBM成为数据中心主流内存 [45][46][47][51] - 公司采用垂直整合方式设计优化计算平台,但开放每一层以集成进合作伙伴的产品和服务中,通过GTC大会等活动持续描绘未来,塑造整个生态的认知 [27][28] - 与台积电的合作建立在三十年的深度信任基础上,业务总值达数百亿甚至数千亿美元,很多时候甚至没有正式合同 [75][76][77] 竞争格局与行业洞察 - 中国被认为是当今世界创新速度最快的国家之一,拥有全球约50%的AI研究人员,激烈的内部竞争、快速的知识传播、开源文化和深厚的教育基础是主要原因 [68][69][70] - 开源AI对于AI普及至每个行业和国家至关重要,公司推动开源(如Nemotron模型)的原因包括:AI范畴远大于语言、希望让更多人参与、模型研究需与计算系统协同演进 [72][73] - 在AI时代,程序员(定义为能描述规范、定义意图的人)规模可能从今天的几千万扩大到十亿级,各种职业都将被AI提升而非简单替代 [7][100] 领导力与公司文化 - 公司领导者采用独特的“集体智慧”决策模式,约有60名涵盖各技术维度的专家直接向其汇报,通过集体讨论而非一对一会议解决问题 [5][12][14] - 决策与沟通方式强调提前塑造共同信念,通过反复讲述未来图景来让团队、董事会及生态伙伴认同,再正式宣布战略 [27] - 思维方式与埃隆·马斯克有相似之处,都是“系统层面的极简主义者”,不断质疑直到剔除所有不必要部分 [5][55] - 公司内部倡导“光速”理念,即以物理极限为基准审视所有工作,追求根本性重构而非渐进式优化 [58]
英伟达早不靠GPU躺赢,黄仁勋终极预判:10亿程序员时代将至,AI智能彻底廉价
36氪· 2026-03-24 19:42
公司战略与转型 - 公司历史上最关键的一次转向是从图形芯片厂商转向计算平台公司,其标志是顶着利润下滑风险将CUDA生态押注于GeForce GPU [2] - 公司当前的核心战略是竞争从单颗芯片转向“AI工厂”,这被视为决定公司能否达到十万亿美元市值的关键 [2] - 公司已从专注于芯片级设计转向机架级和系统级设计,致力于打造包含GPU、CPU、内存、网络、存储、电源、散热、软件及整个数据中心的完整计算系统 [7] - 公司通过“极致协同设计”优化整个技术栈,从架构、芯片到系统、软件、算法及应用程序,以解决大规模分布式计算中的性能瓶颈问题 [8] - 公司早期通过将CUDA集成到消费级GeForce GPU来建立庞大的安装基础,尽管当时成本上升约50%并严重侵蚀毛利,市值一度从六七十亿美元跌至约15亿美元,但此举为后来的深度学习革命奠定了基础 [12][13][14][16] 技术演进与扩展定律 - AI的扩展定律远未到尽头,正沿着预训练、后训练、测试以及智能体系统四条路径继续推进,增长重点转向推理、强化学习和智能体协作 [2] - 未来AI迭代的核心燃料将大量来自AI自身产生的合成数据,人类直接生成的数据在总训练数据中的占比会越来越小 [2][19] - 决定智能上限的核心因素是计算能力,而非数据 [19][22] - 推理(测试时扩展)需要非常巨大的计算量,其核心衡量指标是“每瓦每秒能够产出多少token” [3][20][28] - 下一个规模定律是智能体扩展定律,智能体通过研究问题、访问数据库、调用工具和派生子智能体来工作,产生更多数据并形成持续迭代的循环 [20][21] 产品与工程哲学 - 公司产品设计理念是追求“系统必须复杂到刚刚好,但要尽可能简单”,不断检验和剔除不必要的复杂性 [44] - 工程方法强调“光速”理念,即做任何事情前都先从第一性原理出发,搞清楚物理极限(如内存速度、运算速度、功率、成本等),并以此审视和重构流程,可能将原本需要74天的事情优化至6天 [41] - 公司采用独特的扁平化组织结构,约有60名涵盖内存、CPU、光学、GPU、系统架构等核心技术的专家直接向CEO汇报,以促进跨领域的极致协同设计 [4][9][10] - 公司的系统复杂度极高,例如Vera Rubin系统的一个Pod包含约12万亿个晶体管、近2万个芯片、60 exaflops算力及每秒10 PB的扩展带宽 [43],而NVL72机架包含约130万个组件、1300个芯片和4000个模块 [44] - 公司每周生产约200套NVL72这样的复杂系统 [44] 行业洞察与未来预测 - AI模型架构每六个月发生一次重大变化,而系统与硬件架构的更新周期长达三年,因此硬件布局必须提前预测未来两三年 [3][23] - 公司通过自身研究、与全球重要AI公司合作以及保持架构(如CUDA)灵活性来应对快速变化的算法需求 [23] - 未来世界正从“基于检索的文件系统”演变为“基于生成的上下文系统”,计算需求将远大于以存储为核心的旧世界 [5][59] - “AI工厂”将成为生产有价值产品(即token)的设施,智能本身正变成一种可扩展、可分级、可定价的产品,这将驱动世界经济总量增长并大幅提升计算在GDP中的占比 [5][59] - 智能体被视为“token世界的iPhone”,是历史上增长最快的应用类别 [62][63] - 未来程序员的定义将扩展为“描述规范、定义意图”,具备编程能力的人群可能从目前的几千万扩大到十亿规模 [5][73] 供应链与生态系统 - 公司深度参与供应链协同,例如提前数年说服DRAM行业CEO投资HBM,使其从超级计算机应用转向成为数据中心主流内存 [29][30] - 供应链极其复杂,例如Vera Rubin机架系统背后有约200家供应商,公司已将超级计算机的集成测试工作前移至供应链中完成 [33][34] - 公司与台积电的合作建立在数十年深度信任基础上,累计完成了价值数百亿甚至数千亿美元的业务,很多时候甚至没有正式合同 [55][56] - 公司认为台积电的护城河不仅在于晶体管技术,更在于其协调全球数百家客户动态需求、保持高产量、高良率、低成本并提供顶级客户服务的综合能力 [54] 能源与基础设施 - 当前全球电力系统存在大量闲置,峰值负荷仅在60%左右,这些闲置电力资源可被AI工厂充分利用 [3][35] - 扩展的真正障碍之一是提高“每瓦每秒产生的token数量”,公司通过系统级协同设计在过去十年实现了百万倍级别的性能提升,远超摩尔定律带来的约100倍提升 [28] - 公司倡导设计能够“优雅降级”的数据中心,并与电力公司推动分层级、分场景的供电承诺,以更高效地利用电网闲置容量 [35][37] 市场竞争与创新环境 - 中国被认为是当今世界创新速度最快的国家之一,其优势在于拥有全球约50%的AI研究人员、深厚的STEM教育基础、激烈的内部竞争、快速的知识传播以及积极的开源文化 [47][48] - 开源AI对于AI进入每个行业和国家至关重要,公司推动开源(如Nemotron模型)的原因包括:AI范畴远大于语言、希望让尽可能多人参与、模型研究需与计算系统协同演进 [51][52] - 公司认为未来的竞争并非替代现有软件和工具,而是AI智能体学会使用现有工具(如微波炉、锤子)来完成任务 [25]
成立仅2月,这家AI初创公司种子轮融资33亿,贝索斯也出手了
搜狐财经· 2025-12-13 18:20
公司融资与估值 - 2025年12月8日,AI神经形态计算芯片初创公司Unconventional AI在种子轮融资中筹集了4.75亿美元(约合33亿元),投后估值飙升至45亿美元(约合318亿元),创下AI芯片领域早期融资纪录之一 [2] - 本轮融资由Andreessen Horowitz(a16z)和Lightspeed Venture Partners共同领投,其他投资者包括Lux Capital、DCVC、Databricks以及亚马逊创始人杰夫·贝索斯,创始人Naveen Rao本人也投资了1000万美元 [2] - 此轮融资是公司更大规模融资计划的第一步,后续计划融资总额可能高达10亿美元 [2] 创始团队背景 - 公司由前Databricks人工智能主管Naveen Rao牵头创立,联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour以及前谷歌工程师MeeLan Lee,背景覆盖硬件、软件和神经科学领域 [3] - 创始人Naveen Rao对类脑计算的探索始于25年前,拥有布朗大学神经科学博士学位,曾担任高通神经形态研究员,是一位成功的连续创业者 [5][6] - Rao的创业履历是硅谷AI芯片发展的缩影:2014年联合创立AI芯片公司Nervana Systems,该公司于2016年被英特尔以约4亿美元收购;2021年联合创立生成式AI工具平台MosaicML,该公司于2023年被Databricks以13亿美元收购 [8][9] 公司创立与技术愿景 - 2025年10月,Rao离开Databricks创立Unconventional AI,旨在开发“下一代数字计算机”,借鉴神经科学原理设计模拟芯片,以解决AI训练电力需求已接近全球数据中心总能耗2%的问题 [10] - 公司核心是重新设计AI计算的底层硬件架构,开发专为人工智能工作负载优化的高能效模拟计算芯片及完整配套系统,以突破当前GPU架构的能效墙 [11] - 技术灵感来源于人脑仅约20瓦的功耗却能完成复杂工作,公司目标是追求“生物规模的能源效率”,并重拾模拟计算路径,利用半导体材料本身的物理特性直接进行计算 [12][13] 技术路径与研发策略 - 公司探索利用半导体材料的物理特性进行模拟计算,这种方法能显著降低能源消耗,提升计算适应性,使芯片更自然地处理不确定性数据 [13][14] - 技术路线图计划花费五年时间开发一种新型模拟芯片,第一个原型芯片“很可能是有史以来最大的模拟芯片之一” [14] - 研发策略采取开放探索态度,未来几年将测试一系列想法和原型以确定最高效、最具可扩展性的范式,公司专注于长期基础研究,目标是成为一家真正的系统公司 [14][15] 行业背景与Neo-Lab热潮 - 行业共识认为,过去依赖“扩展定律”通过扩大数据与模型规模提升AI能力的单一路线已不可持续,单纯堆算力、堆电力的传统路径已走到极限 [16] - 一种名为“Neo-Lab”的新研发范式兴起,指的是一批从AI巨头出走的顶尖研究员创立的、专注于高风险长周期基础研究的新型实验室,它们不再追逐规模竞赛,转而探索智能本质、神经形态计算等基础方向 [17] - Neo-Lab的共同特点是创始人履历显赫、研究方向大胆、没有成熟产品,却在早期获得极高估值,例如前OpenAI首席科学家Ilya Sutskever创立的SSI估值达320亿美元,前OpenAI CTO Mira Murati创立的Thinking Machines Lab估值达100亿美元 [18][19] 资本逻辑与市场趋势 - Unconventional AI的高估值反映了资本逻辑的转变,押注重点已不是短期产品路线图,而是创始人被两次成功创业验证的卓越判断力与执行力,以及团队挑战行业根本问题的抱负 [19] - 投资方a16z表示,其投资的是“一家旨在为人工智能构建更高效计算基础的公司”,资本在用巨额资金购买创始人“用履历兑换一个不一样未来”的可能 [20] - 在扩展定律边际效应递减、电力成为新瓶颈的背景下,市场更愿意为系统级、基础性的计算创新支付高额溢价 [20]
成立仅2月,这家AI初创公司种子轮融资33亿,贝索斯也出手了
创业邦· 2025-12-13 11:05
公司融资与估值 - 人工智能硬件初创公司Unconventional AI在成立仅两个月后,于种子轮融资中筹集了4.75亿美元(约合33亿元人民币),投后估值达到45亿美元(约合318亿元人民币)[3][4] - 此轮融资由Andreessen Horowitz (a16z) 和 Lightspeed Venture Partners共同领投,其他投资者包括Lux Capital、DCVC、Databricks以及亚马逊创始人杰夫·贝索斯,创始人Naveen Rao本人也投资了1000万美元[4] - 该笔融资是公司更大规模融资计划的第一步,后续计划融资总额可能高达10亿美元[4] 创始团队背景 - 公司的核心竞争力源于其豪华的创始团队,由前Databricks人工智能主管Naveen Rao牵头创立[5] - 联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour以及前谷歌工程师MeeLan Lee,背景覆盖硬件、软件和神经科学领域[5] - 创始人Naveen Rao是一位成功的连续创业者,其履历是硅谷AI硬件发展的缩影[10] 创始人创业历程 - Naveen Rao于2014年首次创业,联合创立了AI芯片公司Nervana Systems,该公司在成立两年内完成三轮共超过2400万美元融资,并于2016年被英特尔以约4亿美元收购[12][13] - 2021年初,Rao联合创立生成式AI工具平台MosaicML,该公司在2023年6月被Databricks以13亿美元的全现金交易收购[13][14] - 2025年10月,Rao离开Databricks,组建Unconventional AI,旨在开发下一代数字计算机[15] 公司技术愿景与路线 - Unconventional AI的核心是重新设计AI计算的底层硬件架构,开发专为人工智能工作负载优化的高能效模拟计算芯片及完整系统[17] - 公司旨在解决当前GPU架构的局限性,即能源消耗过高,无法支撑万亿参数模型的持续迭代,AI训练的电力需求已接近全球数据中心总能耗的2%[14][15] - 技术灵感来源于人脑的高能效,人脑功耗仅约20瓦,公司目标是追求“生物规模的能源效率”[19] 模拟计算技术路径 - 公司选择了一条不同于主流数字芯片的技术道路,重拾“模拟计算”路径,利用半导体材料本身的物理特性来直接进行计算[19] - 该方法的核心优势在于能显著降低能源消耗,同时提升计算的适应性,使芯片能更自然地处理AI任务中的不确定性数据[20] - 公司计划花费五年时间开发一种新型模拟芯片,第一个原型芯片“很可能是有史以来最大的模拟芯片之一”,目前处于原型设计和验证阶段[20][21] 行业背景与Neo-Lab热潮 - 过去近十年,AI领域的重大突破主要由OpenAI、DeepMind等“前沿实验室”推动,遵循“扩展定律”,但暴露出高成本、高能耗与路径趋同等问题[23] - 2025年7月的一项元分析研究显示,在可验证的实验中,仅39%的任务表现出稳定的线性缩放关系,其余61%呈现非线性、非单调或完全不可预测的行为,“逆扩展现象”也被确认[23] - 行业共识认为“只靠规模”的单一路线已不可持续,这催生了名为“Neo-Lab”的新研发范式,即由顶尖研究员创立、专注于高风险长周期基础研究的新型实验室[24][25] 市场估值逻辑与资本押注 - Unconventional AI身处Neo-Lab资本热潮中,类似企业包括前OpenAI首席科学家Ilya Sutskever创立的SSI(估值320亿美元)和前OpenAI CTO Mira Murati创立的Thinking Machines Lab(估值100亿美元)[26][27] - 资本押注的并非短期的产品路线图,而是创始人被两次成功创业验证的卓越判断力与执行力,以及团队挑战行业根本问题的抱负[27] - 投资方a16z表示,他们投资的是一家旨在为人工智能构建更高效计算基础的公司,这代表市场愿意为系统级、基础性的计算创新支付高额溢价[28]
大模型“赶超”OpenAI、芯片威胁英伟达,谷歌为何能突然搅动AI战局?
凤凰网· 2025-11-26 10:12
公司AI模型表现 - 谷歌发布最新大模型Gemini 3,在编码、设计和分析方面表现优于前代模型,并在基准测试中超越了ChatGPT和其他竞争对手,被评价为最强大的AI聊天机器人[2] - Gemini 3的发布缓解了市场对谷歌落后于竞争对手以及AI模型扩展定律放缓的担忧,自11月18日发布以来,谷歌母公司Alphabet股价已上涨超过12%[2] 公司自研芯片进展 - 谷歌花费十多年开发自研芯片张量处理单元(TPU),用于训练其Gemini模型,并通过云业务销售TPU访问权限[3] - 谷歌正与Meta洽谈一笔价值数十亿美元的重大交易,可能让Meta在自家数据中心部署谷歌芯片,此举对英伟达等芯片公司业务构成长期威胁,导致其股价大跌[3] 公司法律与监管环境 - 美国联邦法官就2020年针对谷歌搜索业务的反垄断诉讼作出处罚,但未拆分其搜索帝国,仅禁止签订排他性协议并要求共享部分搜索数据,谷歌几乎毫发无损[4] - 谷歌Chrome浏览器一度面临被拆分的风险,但法官裁决后,其搜索广告生态中的关键环节得以保全[4] 公司重要股东动向 - “股神”巴菲特旗下伯克希尔·哈撒韦公司上季度建立对谷歌母公司Alphabet价值43亿美元的持股,此举非同寻常,因巴菲特通常避开科技股和高增长公司[5][6] - 巴菲特在准备卸任CEO之际决定押注谷歌,表明其对这家搜索巨头抱有强烈信心[6] 公司核心业务表现 - 谷歌核心赚钱业务搜索广告在第三季度收入增长15%,表明生成式AI并未损害其业务,反而让人们更频繁地进行搜索[7] - 公司正在测试聊天机器人版搜索“AI模式”的广告,该模式正逐渐摆脱实验阶段,被视为搜索未来运作方式的构想[7] 公司整体市场表现 - 谷歌完成市场逆转,市值刚刚超越微软,并正朝着4万亿美元俱乐部迈进,今年母公司Alphabet股价上涨近70%[1] - 公司从AI模型到触达用户的搜索引擎等平台实现了协同运作,在快速发展的AI领域显得前所未有的强大[1]
喝点VC|YC对谈Anthropic预训练负责人:预训练团队也要考虑推理问题,如何平衡预训练和后训练仍在早期探索阶段
Z Potentials· 2025-10-16 11:03
预训练核心策略 - 预训练的核心目标是推动损失函数下降,这是模型开发中持续追求的唯一目标[5] - 自回归语言建模(预测下一个词)已成为主流预训练方法,其优势在于能从互联网海量无标签数据中自动生成密集的学习信号,并且其损失函数能直接反映模型生成文本的核心能力[8][9] - 扩展定律表明,模型性能(损失值下降)与计算资源、数据量或模型参数的增加之间存在可预测的幂律关系,这构成了技术商业正反馈循环的基础:更好的模型带来产品收入,进而投入更多算力训练更优模型[9][10] - 在模型架构选择上,只要不出现极端配置错误,持续增加算力对模型性能的提升作用远大于超参数微调带来的边际效益[11][13] 大规模工程挑战 - 大规模模型训练面临复杂的工程难题,需要将计算任务在成千上万个GPU上进行分布式并行,涉及数据并行、流水线并行和模型并行等多种模式的极致优化[18][19] - 硬件层面的极限调试至关重要,包括需要理解芯片的物理布局、机房网络延迟,甚至通过聚类算法来推测和解决由硬件故障或连接问题导致的训练瓶颈[17][28] - 随着算力规模从单个机房扩展到整个园区,系统可靠性面临严峻挑战,最小的硬件故障(如单块GPU损坏、供电波动或电容不足)都可能导致耗时数月的训练任务崩溃[28][29] - 技术栈的复杂性要求团队具备全栈调试能力,问题可能出现在从高级机器学习动态到底层网络协议或芯片架构的任何层面,而能跨越多层级进行问题诊断的人才非常稀缺[66] 数据与评估瓶颈 - 高质量数据的可用性是一个核心挑战,尽管互联网数据量巨大,但其有用部分的规模增长可能慢于算力增长,且数据的质量与数量需要权衡[35][36] - 使用AI模型生成的数据来训练新模型存在根本性风险:新模型只会学习到原始模型的分布,如果原始分布存在错误,新模型将无法接近真实知识,这可能导致性能瓶颈或模式崩塌[43][44] - 损失函数仍然是评估预训练效果最直接有效的指标,理想的评估标准应同时满足三点:反映真实关心目标、低噪声、快速易用,其中明确“真实关心目标”是最困难的部分[47][48] - 对于AGI级别的评估,需要设计能捕捉复杂智能行为的任务(如模拟医生与患者的长时间对话),但这类评估通常噪声高、执行慢,难以直接用于快速迭代[50] 对齐与组织管理 - AI对齐的核心问题是让模型的目标与人类目标一致,尤其是在模型比人类更聪明时,当前主要通过后训练(如强化学习)快速迭代调整模型行为,而非在预训练阶段直接嵌入[51][56] - 在组织设计上,需要避免因团队分工(如预训练团队与后训练团队)而导致科学决策被团队本位主义绑架,应保持合作以共同产出最优模型[34][35] - 团队构成以工程能力为核心,最需要的是能解决极难工程问题、实现大规模系统正确性的工程师,而非仅专注于发表论文的研究人员[67][68] - 预训练团队需要与推理团队紧密合作,在模型设计阶段就考虑推理效率,避免模型过于庞大或引入不必要的通信步骤影响最终用户体验和服务的经济性[70][71][73] 未来发展方向 - 当前AI研究最大的瓶颈之一是计算资源受限,而非算法突破,这限制了模型训练和实验迭代的速度[5][74] - 未来可能出现范式转变,例如向强化学习倾斜更多算力,但最令人担忧的风险是难以察觉的代码错误,这些细微的bug可能使耗时数月的训练任务失效且难以排查[62][63] - 对于创业公司,机会在于利用当前模型智能,专注于能快速落地的具体应用,但需避免构建过于复杂的中间层(脚手架),因为下一代更强大的模型可能使其变得多余[76] - 行业存在对专业化工具和服务的需求,例如能精确检测芯片计算错误的服务,或能帮助快速扩展AI团队、管理组织问题的解决方案[77]
市场激辩“AI泡沫”,德银劝投资者:别试图“择时”,长期持有是最佳策略
华尔街见闻· 2025-10-05 15:28
AI投资规模与融资动态 - 科技巨头正进行前所未有的AI基础设施投资,OpenAI宣布5000亿美元Stargate计划,Meta承诺投入数千亿美元建设数据中心[1][2] - OpenAI预计将在AI基础设施上花费数万亿美元,并考虑债务融资,预计到2029年将消耗1150亿美元现金[2] - 英伟达同意向OpenAI数据中心建设投资多达1000亿美元,Meta获得260亿美元融资,Vantage Data Centers获得超过220亿美元贷款[2] - 其他公司积极参与,Nebius与微软签署194亿美元基础设施协议,Nscale与英伟达、OpenAI和微软合作建设数据中心[4][5] 市场对AI泡沫的争论 - 德意志银行研究显示关于"AI泡沫"的网络搜索量从峰值大幅下降至15%,媒体对AI投资担忧评分从7.3分降至5.1分[13] - 贝佐斯认为当前AI投资是"好的泡沫",即便破裂也将为社会带来长期利益,类似互联网泡沫留下的基础设施遗产[1][11] - 高盛CEO所罗门警告大量涌入AI领域的资本可能无法获得预期回报,预计未来12-24个月可能出现股市回调[1][13] - 对冲基金Greenlight Capital创始人David Einhorn表示极端投资数字可能导致大量资本被摧毁[10] AI技术发展与回报挑战 - OpenAI首席执行官承认在实现通用人工智能方面"缺少重要东西",GPT-5模型发布后反响平平[8] - 麻省理工学院研究发现95%的组织在AI投资上未获得任何回报[6] - 哈佛和斯坦福研究人员指出员工使用AI可能让大型组织每年损失数百万美元生产力[7] - DeepSeek发布低成本AI模型曾引发科技股万亿美元抛售,英伟达单日暴跌17%[8] 投资策略建议 - 德意志银行强调识别泡沫几乎不可能,泡沫通常以非线性的方式发展,在互联网泡沫期间纳斯达克曾出现7次10%以上回调[15] - 历史数据显示,如果1996年初投资1万美元并持有至今年6月,价值将超过17万美元,但错过最佳10个交易日回报将减半,错过最佳20个交易日回报仅为四分之一[17] - 最佳和最差交易日往往相邻出现,在1996年至今年6月期间最佳的10个交易日中,有5个出现在最差10个交易日的一周内,表明精确择时极其困难[19] - 建议采用长期持有策略,以获取补偿股权投资风险所需的风险溢价[19]
扎克伯格“暴利抢人”继续,挖走OpenAI前首席科学家创业项目CEO
36氪· 2025-07-04 17:55
Safe Superintelligence(SSI)人事变动 - SSI联合创始人丹尼尔·格罗斯于6月29日离职并加入Meta担任AI产品部门负责人 [2] - 创始人伊利亚·苏茨克维亲自出任CEO 另一位联合创始人丹尼尔·利维升任公司总裁 [2] - 公司拒绝Meta的收购意向 强调专注于开发安全的超智能技术 [2][4] SSI公司背景与发展 - 公司成立于2024年6月 专注于开发安全的超智能技术 [4] - 2025年4月融资后估值达320亿美元 获得Alphabet和英伟达投资 [4] - 创始人苏茨克维是扩展定律的早期倡导者 但认为单纯扩大模型规模已不是AI发展的最佳路径 [4] Meta的AI人才战略 - Meta展开数百亿美元AI招聘潮 包括向Scale AI投资140亿美元并吸引其创始人加入 [5] - 公司计划通过挖掘顶尖人才解决AI发展困境 但Llama 4 Behemoth模型开发进度因技术问题推迟 [5] - Meta失去Llama研究论文14名原始作者中的11名 工程师陷入"恐慌模式" [5] AI行业人才争夺战 - Meta与OpenAI展开激烈人才竞争 OpenAI CEO指责Meta提供巨额薪酬挖角 [6] - 传闻Meta为挖高级人才开出1亿美元奖金 但遭新聘研究员否认 [6] - OpenAI紧急调整薪酬策略 首席研究官表达强烈不安 [7] Meta的技术布局与挑战 - Meta明确招聘推理专家特拉皮特·班萨尔以弥补技术短板 [7] - 公司已集结强大AI团队 但混乱做法引发对其能否维持领导地位的质疑 [7] - 行业人力资本竞争正在重塑AI领域格局 [7]