Workflow
无监督学习
icon
搜索文档
黄仁勋曝英伟达养了61个CEO、从不炒犯错员工:CEO是最脆弱群体
搜狐财经· 2026-01-25 10:53
公司战略与成功哲学 - 公司成功的关键在于其独特的企业文化和品格,而非生产规模,公司发明了GPU但却是全球产量最小的GPU制造商,许多不知名厂商的产量更高[27][28] - 公司具备从技术发明、产品创新、市场策略制定到生态构建与市场培育的全链条能力,并已多次成功实践[5][6] - 公司没有终极目标,“活下去”就是计划,这种“没有终极目标”的理念对公司发展起到了至关重要的作用[64][65] - 公司创始人认为,其成功部分源于创业初期的“无知”,这种乐观和“无知”是一种超能力,使其能够挑战看似不可能的任务[62][63][64] 管理架构与人才理念 - 公司拥有独特的管理架构,CEO有近60位直接下属,他们中的每一位都具备担任世界级CEO的能力,从某种意义上说,公司有61位“CEO”[21] - 公司打造了一个允许犯错的安全环境,过去包括CEO在内的很多人都犯过严重错误,但从未有人因此被解雇,核心文化是包容、宽恕和从错误中学习[1][29] - 公司坚持“宁缺毋滥”的用人原则,宁愿让职位空缺也不会让不合适的人占据岗位,愿意为等待合适人选付出长时间[25][26] - 公司选拔核心人才的关键标准在于团队成员间的“化学反应”以及与企业品格的契合,而非单纯的个人能力[27] 技术愿景与行业展望 - 未来五年,AI领域的投入将彻底改变计算机的运作模式,计算机将从“由人类编程”进化为“在人类引导下自主学习编程”[2][41] - AI将解决过去无法想象的难题,处理问题的规模将比现在大十亿倍,这将重塑所有科学领域并大幅提升企业生产效率[41][42][43] - AI不会导致大规模失业,预计100%的工作岗位都会发生变化,但不会有50%的岗位消失,反而可能让没有工作的人获得谋生手段,人们会变得比现在更忙碌[2][44][46] - 公司的发展速度可以用“英伟达定律”来形容,比过去的摩尔定律快了一千倍,未来十年将是波澜壮阔的十年[10] 创始人个人领导力与特质 - 创始人将自己定位为“不情愿的CEO”,不喜欢公开演讲和抛头露面,但为了公司会全力以赴去做[1][53] - 创始人认为CEO是公司里最脆弱的一群人,无法单打独斗,需要经常寻求他人的帮助与善意[1][56][57] - 创始人的自信源于对底层原则的坚信和不断逻辑推演,其信念自1993年公司创立以来从未改变[14] - 创始人认为真正的“聪明”是结合技术洞察与人文同理心、能预见和规避风险的能力,而非传统意义上的高智商或编程能力[58] 公司发展历程与信念 - 公司自1993年创立以来,其核心目标就是重塑计算行业,这条道路走了整整33年才看到成果[4][5] - 公司很早就预见到深度学习的巨大扩展潜力,并全力押注,同时意识到无监督学习技术的突破将是关键拐点[8][9] - 创始人通过长期推广“CUDA无处不在”的战略,走访高校、企业推广CUDA技术,为未来的AI革命奠定了基础[7] - 公司经历过严峻挑战,例如研发Grace Blackwell芯片的过程曾差点拖垮公司,但依靠团队凝聚力和企业品格最终成功克服[28]
最烦做演讲,黄仁勋曝英伟达养了61个CEO、从不炒犯错员工:CEO是最脆弱群体
36氪· 2026-01-19 18:43
文章核心观点 - 英伟达联合创始人兼首席执行官黄仁勋在访谈中分享了其个人领导哲学、公司文化、对人工智能未来的展望以及个人成长经历,核心观点包括:英伟达的成功源于其独特的企业品格、长期坚持的技术愿景以及“没有终极目标”的发展理念,而非生产规模 [1][60][61] - 黄仁勋预测,未来五年AI将彻底改变计算模式,提升社会生产效率,并改变所有工作岗位的性质,但不会导致大规模失业 [2][38][43] - 黄仁勋将自己描述为一个“不情愿的CEO”,并认为CEO是公司里最脆弱的一群人,其成功依赖于团队和外部帮助 [1][49][52][53] 公司战略与愿景 - 公司自1993年创立以来,长期致力于重塑计算行业,其早期战略观点在CPU为主流的时代颇具争议 [4] - 公司的发展路径是“走了整整33年才看到成果”,其成功不仅在于技术发明(如GPU和CUDA),更在于将技术转化为产品、制定市场策略并培育生态系统的全链条能力 [5][6] - 公司曾推行“CUDA无处不在”的战略,创始人长期向高校、企业推广CUDA技术,坚信其将改变世界 [7] - 公司没有终极目标,“活下去”就是计划,这种“没有终极目标”的理念对其发展起到了至关重要的作用 [60][61] 领导力与公司文化 - 公司内部有近60位直接下属,每位都具备担任世界级CEO的潜力,从某种意义上说,公司有61位“CEO” [1][18] - 公司打造了一个安全的环境,过去包括创始人在内的很多人都犯过严重错误,但从未有人因此被解雇,形成了包容、宽恕并从错误中学习的文化 [1][25] - 创始人的用人哲学是“宁让职位空着,也不能让不合适的人占着位置”,并愿意为等待合适人选而让职位空缺很久 [20][21][22] - 创始人认为公司的成功秘诀在于独特的企业文化和企业品格、团队在逆境中的凝聚力,而非产量或单个人的能力 [23][24] - 创始人将自己定位为公司的一名员工,必须每天努力以对得起工作,并认为CEO需要向董事会负责,职位本身很脆弱 [15][52] 技术发展与行业展望 - 创始人断言,未来五年,英伟达及整个行业在AI领域的投入将彻底改变计算机运作模式,从“由人类编程”进化为“在人类引导下自主学习编程” [2][38] - 未来的计算机将能够处理比现在大十亿倍的问题规模,这将重塑所有科学领域并解决许多当前难题 [38][39] - AI将极大提升企业生产效率,供应链管理将更顺畅,浪费基本消失,公司利润更丰厚,社会财富增长 [40] - 创始人提出“英伟达定律”,称公司发展速度比过去的摩尔定律快了整整一千倍 [10] - 无监督学习(自监督学习)技术的突破是深度学习规模效应彻底释放、公司驶入发展快车道的关键 [8][9] 对就业与社会的影响 - 未来100%的工作岗位都会发生变化,但不会有50%的岗位消失,趋势是大家会比现在更忙碌 [2][43] - AI将帮助那些有天赋但不懂技术的人跨越技术鸿沟,例如通过“氛围编程”让任何人成为软件程序员,并创造经济机会 [43] - 那些现在没有工作的人,很可能会因为AI获得谋生的手段 [2][43] - AI将缓解劳动力短缺问题,帮助控制通货膨胀,并有望推动GDP增长 [43] 创始人个人见解与经历 - 创始人自称在很多方面是一个“不情愿的CEO”,不喜欢公开演讲和抛头露面,但为了公司会全力以赴去做 [1][49] - 公开演讲让其感到恐惧和焦虑,尤其是公司内部会议演讲,这与外界认为其享受演讲的印象相反 [55][56] - 创始人的自信源于对底层原则的坚信、持续的逻辑推演和复盘,而非道听途说 [13][14] - 童年经历塑造了其性格,包括母亲用词典教英语让其学到“有坚定意志就能做事”,以及9岁时在肯塔基州上学途中面对欺凌的“痛苦与磨砺” [28][29][30] - 创始人认为“无知”是一种超能力和福气,正是当年的“无知”和乐观让其敢于创立英伟达,如果早知道困难就不会去做 [58][59][60] - 创始人认为真正的“聪明”是兼具技术洞察力与人文同理心、能预见和规避风险的能力,而非单纯的智商或解题能力 [54]
LeCun离职前的吐槽太猛了
量子位· 2025-12-21 13:45
文章核心观点 - 人工智能领域知名学者Yann LeCun在离职Meta前,公开批评当前以大语言模型为主导的AI发展路线,认为其无法通往通用人工智能,并宣布将创办一家专注于开源世界模型研究的新公司[1][2][4][8] LeCun对当前AI发展路径的批判 - 严厉批评仅通过扩展大语言模型和合成数据训练来实现超级智能的路径,认为这“完全是胡说八道”且“根本行不通”[2] - 认为大语言模型擅长处理离散的文本数据,但在处理高维、连续且嘈杂的现实世界数据如图像或视频时表现“完全糟糕”[29] - 断言仅靠训练文本数据,AI永远不可能达到人类智能水平[31] - 指出当前AI领域最难的问题是达到狗的智能水平,而非人类的智能水平[7][88] LeCun的创业计划与新公司AMI - 宣布将创办新公司Advanced Machine Intelligence,专注于世界模型的研究,并坚持开源路线[8][9][10] - 新公司AMI的终极目标是成为未来智能系统的主要供应商之一,不仅做研究,还会推出围绕世界模型和规划能力的实际产品[19] - 创业动机源于对Meta转向封闭和短期项目导向的不满,认为公开发表成果是做出有价值贡献的唯一途径[3][14][15][17] 世界模型的理论与优势 - 主张构建智能系统的正确方式是世界模型,其核心是预测和规划,让机器像婴儿一样通过观察世界来构建内在的可预测模型[20][35][37] - 世界模型的关键是在抽象的表示空间中进行预测,而非直接生成像素,这能消除不可预测的细节和噪声,实现更长期可靠的预测[38][41][42][43] - 提出通过联合嵌入预测架构在抽象表示空间中进行预测,并认为“LeJEPA+SIGReg”是训练抽象表示非常有前途的技术集合[44][77] - 通过数据对比强调现实世界数据的丰富性:LLM训练所需的约30万亿tokens文本数据,其信息量仅相当于约15000小时的视频,而这只是一个4岁孩子一生中接收的视觉信息总量,仅相当于YouTube半小时的上传量[32][33] 对Meta现状及FAIR未来的评价 - 指出Meta在领导层变更后正变得更加封闭,从开源先锋转向封闭,且FAIR更倾向于短期项目和为内部实验室提供支持[3][11][24] - 透露其离职后,FAIR将由Rob Fergus领导,内部减少了对论文发表的重视,标志着Meta长达十年的“学院派”研究黄金时代结束[24][26] - 澄清自己在Meta的继任者并非“亚历山大王”,后者职责更偏向整体运营管理[23] 对AGI及智能发展的看法 - 认为AGI的概念本身无意义,人类智能是高度专业化的,实现机器在人类擅长领域超越人类需要一个渐进的过程,而非突发事件[80][82][83] - 预测未来几年世界模型和规划能力可能取得概念性突破,为实现人类水平AI铺平道路,但仍需大量新的理论创新[84][85] - 强调实现狗的智能水平是比实现人类智能更难的挑战,因为那需要具备大量的基础理论,而在此基础上增加语言能力则相对容易[88][89] - 认为单靠LLM或单靠世界模型都无法实现真正的人类智能,需要多种研究的结合与长时间积累[90] LeCun的职业生涯与理念 - 其职业生涯的核心目标是提升人类智能,认为智能是世界上最稀缺的资源,因此拒绝退休并选择继续创业贡献[91][94][95] - 始终坚持开源的技术路径,认为科学的进步源于开放交流中思想的叠加延伸,如果不公开发表就算不上真正的研究[15][103] - 回顾职业生涯有遗憾,如曾想到反向传播算法的核心思路但未及发表,但认为好的想法是集体智慧的产物[99][102]
倒计时3周离职,LeCun最后警告:硅谷已陷入集体幻觉
36氪· 2025-12-16 15:11
对当前主流AI发展路径的批判 - 核心观点认为大语言模型路线是死路,无法通往人类水平的人工智能,硅谷对不断“堆大”LLM的痴迷是一条死路 [1][3] - 指出当前基于LLM的AI智能体在可靠性、数据效率、多模态处理上远远不足 [12] - 批评行业存在危险的“羊群效应”,科技巨头几乎都在做同一件事即疯狂堆叠LLM,形成了“单一的文化” [26][28] - 明确表示所谓的ASI路线——不断训练LLM、用更多合成数据、雇几千人做后训练、折腾RL新技巧——完全是胡说八道且永远不可能成功 [1][28] 提出的替代技术路线:“世界模型” - 主张“世界模型”才是实现人类水平AI的“正确方法”,其能够预测动作后果并用于规划,是智能的重要组成部分 [12][14] - “世界模型”在抽象表征空间中进行预测,而非像素级输出,旨在处理高维、连续和嘈杂的模态数据,这是LLM完全做不到的 [3][14][23] - 其技术基础是联合嵌入预测架构,旨在学习一个抽象的表示空间以消除输入的不可预测细节 [16] - 近20年来一直确信构建智能系统的正确途径是通过某种形式的“无监督学习”,JEPA的发展克服了早期孪生网络的模型坍塌问题 [17] 关于数据与智能的对比 - 训练一个性能不错的LLM需要互联网上约30万亿Token的文本数据,这仅相当于约15,000小时的视频 [21][22] - 一个4岁孩子醒着时看到的视觉信息大约是16,000小时,现实世界数据的结构比文本丰富得多,仅靠文本训练永远无法达到人类水平的AI [22] - 合成数据有用,但LLM并不真正理解通过经验习得的基本概念,只是被微调出来给出正确答案,更像是“反刍”而非真懂 [25] 创业公司AMI的创立与目标 - 决定在Meta外部创办Advanced Machine Intelligence,专注于“世界模型”并计划延续开放研究的传统 [4][5] - 创办AMI的动因之一是为了摆脱硅谷的单一文化,该公司是全球性的,总部将设在巴黎,并在纽约等地设立办公室 [30] - AMI的目标不仅是研究,还会打造与世界模型、规划相关的实际产品,并成为智能系统的核心供应商 [9] - 认为投资者现在愿意为这类基础研究创业公司买单是一种新现象,这在以往是不可能的 [4] 对AI行业现状与Meta的评论 - 指出行业风向正在转变,越来越多实验室选择闭源,这种趋势不利于真正突破性的研究 [4] - 透露Meta AI重组后重心完全放在了LLM,FAIR正被推向“更短期的项目”,较少强调发表论文,更多专注于协助GenAI Lab进行LLM研究,这是其选择出来创业的部分原因 [39][41] - 认为即使在硅谷的各家公司内部,也有不少人心里很清楚LLM这条路走不通 [28] - 点评了一些大模型公司,例如指出Ilya创立的SSI甚至包括他们的投资人都不知道这家公司要做什么 [41] 对AGI概念与发展时间线的看法 - 认为“通用人工智能”这个概念完全没有意义,完全是胡扯,因为人类智能是超级专业化的 [31] - 乐观预测如果在JEPA、世界模型、规划等方向未来两年取得重大进展,可能在5-10年内看到接近人类或狗智能水平的AI,但这已是极度乐观 [33] - 更现实的预测是,由于历史上多次出现未预见的障碍,实现超越可能需要20年甚至更久 [33] - 认为最难的部分不是从狗到人类,而是达到狗的水平,从灵长类动物到人类主要缺的是“语言” [35][36] 对研究文化与人才培养的建议 - 强调真正的研究需要发表论文,没有别的办法,这是目前很多行业正在遗忘的事情 [11] - 建议年轻人学习“保质期长”的知识以及能“学会如何学习”的东西,因为技术演变太快 [43] - 具体建议深入学习数学、电气工程、机械工程、物理学等基础学科,计算机科学只需学到能熟练编程的程度,这些基础能让人在AI快速变化中站稳脚跟 [45][46] - 认为“世界模型”所在的地方类似于大脑的前额叶皮层,而LLM在语言编码/解码上表现不错,或许能充当大脑的韦尼克区和布罗卡区 [36][38]
黄仁勋最新采访:依然害怕倒闭,非常焦虑
半导体芯闻· 2025-12-08 18:44
人工智能竞赛与国家安全 - 全球一直处于技术竞赛中,从工业革命、二战、曼哈顿计划到冷战,而当前的人工智能竞赛可能是最重要的一场,因为科技领导力能带来信息、能源和军事上的超能力 [12] - 确保关键技术在美国本土研发和制造关系到国家安全,重振美国制造业和工业能力对于投资、就业和解决国内问题至关重要 [7][8] - 前总统特朗普的促进增长的能源政策(如“钻井,宝贝,钻井”)被认为是拯救人工智能产业的关键,没有能源增长就无法建造人工智能工厂、芯片工厂和超级计算机工厂 [8] 人工智能发展现状与未来 - 人工智能能力在过去两年里可能增长了100倍,相当于两年前的汽车速度慢了100倍,计算能力的巨大提升被用于使技术更安全、更可靠 [14] - 人工智能性能未来一千倍的提升,其中很大一部分将用于更多的反思、研究和更深层次的思考,以确保答案的准确性和基于事实,类似于汽车技术将更多动力用于ABS和牵引力控制等安全功能 [14][16] - 预计未来两三年内,世界上90%的知识可能都将由人工智能产生,这与从人类编写的材料中学习区别不大,但仍需核实事实和基于基本原理 [41] 人工智能的风险、安全与控制 - 人工智能的风险被类比为左轮手枪里有10发子弹取出8发,仍存在不确定性,但人工智能的发展将是渐进的,而非一蹴而就 [13] - 人工智能的军事应用是必要的,需要让科技公司投身国防技术研发更容易被社会接受,拥有过剩的军事力量是避免战争的最好办法之一 [19][20] - 人工智能不会突然获得意识并统治人类,因为人类也在同步使用和进步,人工智能的威胁更类似于网络安全问题,可以通过协作防御来应对 [28][30] 人工智能对就业与经济的影响 - 以放射科医生为例,人工智能并未导致该职业消失,反而因为能更高效处理影像(如3D/4D形式),使医院能服务更多患者,从而增加了放射科医生的雇佣数量,工作的核心意义(如诊断疾病)并未改变 [46][47] - 自动化会取代部分任务型工作,但会催生全新的行业和岗位,例如机器人技术将带来机器人制造、维修、服装等以前不存在的完整产业链 [50] - 关于全民基本收入与普遍富裕的讨论存在悖论,未来可能处于两者之间,富有的定义可能从拥有金钱转变为拥有丰富的资源(如信息),而目前稀缺的资源未来可能因自动化而贬值 [51][52] 技术普及与能源挑战 - 人工智能有望大幅缩小技术鸿沟,因为它是世界上最易用的应用(如ChatGPT),用户可通过自然语言交互,无需学习编程语言,且未来手机将能完全自主运行强大的人工智能 [55][56] - 能源是当前人工智能发展的主要瓶颈,未来五到十年,许多公司可能会建造自有的大约几百兆瓦的小型核反应堆来为人工智能工厂供电,这也能减轻电网负担 [57][59][60] - 加速计算是驱动人工智能革命的关键,英伟达发明的这种全新计算方式在过去十年里将计算性能提高了10万倍,遵循“英伟达定律”,使得计算所需的能耗大幅降低,未来人工智能将因能耗极低而无处不在 [58][62] 英伟达的发展历程与技术创新 - 公司成立于1993年,最初旨在创造一种全新的计算架构,早期通过与世嘉等游戏公司合作,将用于飞行模拟器的3D图形技术应用于街机,从而进入了3D图形游戏领域 [79][80][81] - 2012年,多伦多大学Geoffrey Hinton实验室的研究人员利用两张NVIDIA GPU(GTX 580 SLI)训练出AlexNet模型,在计算机视觉上取得突破性飞跃,这被视为现代人工智能的“大爆炸”起点 [63][64][71][72] - 公司发明的CUDA平台和加速计算方式,利用并行处理能力,使得GPU成为可放在个人电脑中的超级计算机,这最初为计算机图形学和游戏开发,后来成为深度学习革命的基石 [64][66] - 2016年,公司将第一台价值30万美元、运算能力为1 petaflops的DGX-1超级计算机赠予Elon Musk,用于其非营利人工智能研究(即OpenAI),九年后,同等算力的DGX Spark体积大幅缩小,价格降至4000美元 [74][75][76]
黄仁勋最新采访:依然害怕倒闭,非常焦虑
半导体行业观察· 2025-12-06 11:06
人工智能技术发展与竞赛 - 人工智能技术在过去两年内能力提升了约100倍 [13] - 人工智能性能未来有提升一千倍的潜力 [15] - 技术竞赛自工业革命以来一直存在 当前的人工智能竞赛是最重要的一场 [10][11] - 科技领导力至关重要 赋予信息、能源和军事超能力 [11] 人工智能应用与安全 - 大量计算能力被用于提升人工智能的安全性、可靠性和真实性 例如通过反思和研究来减少幻觉 [13][14] - 人工智能能力提升很大一部分将用于更深入的思考、周密的计划和更多的选择 [15] - 网络安全防御依赖于整个行业社群的协同合作 共享漏洞信息和补丁程序已持续约15年 [20] - 人工智能技术正被应用于国防领域 认为拥有过剩的军事力量是避免战争的最好办法之一 [16][17] 人工智能对经济与就业的影响 - 以放射科医生为例 人工智能并未导致该职业消失 反而因为提升了诊断效率和医院经济状况而增加了岗位数量 [41][42] - 工作的核心意义可能不会因自动化而改变 例如律师的职责是帮助他人 而研究文件只是部分工作 [42][43] - 人工智能可能催生全新的行业和就业岗位 例如机器人制造、维修、服装设计等 [44] - 自动驾驶技术可能不会导致所有司机失业 部分司机会转型 技术的应用会创造新的工作类型 [42][44] 人工智能普及与能源瓶颈 - 人工智能是世界上最容易使用的应用 例如ChatGPT用户数量在短时间内增长到近十亿 这有助于缩小技术鸿沟 [47] - 未来几年内 手机将能够完全自主运行人工智能 使每个国家和社会都能受益 [48] - 能源是目前人工智能发展的主要瓶颈 [48][50] - 加速计算技术在过去十年将计算性能提高了10万倍 遵循“英伟达定律” [49][51] - 随着性能提升和能耗降低 未来人工智能所需的能源将微乎其微 从而无处不在 [50] 英伟达公司发展历程与技术 - 公司成立于1993年 旨在创造一种全新的计算架构 [64] - 早期与日本世嘉合作 涉足3D图形游戏领域 游戏产业成为关键驱动力 [64][65] - 公司的GPU最初为处理电脑游戏图形而设计 采用并行处理方式 成为面向消费者的超级计算机 [52][53] - 2012年 AlexNet在计算机视觉领域取得突破 该模型使用了两张NVIDIA显卡进行训练 [51][52] - 深度学习是一种通用函数逼近器 只要有输入和输出示例 就能推导出内部函数结构 可应用于几乎任何领域 [54][55] - 2016年 公司将第一台DGX-1超级计算机(售价30万美元)赠予埃隆·马斯克 用于其非营利人工智能研究(即OpenAI) [60][61] - 从DGX-1到DGX Spark 在保持1 petaflops计算能力的同时 价格从30万美元降至4000美元 体积也大幅缩小 [62]
黄仁勋万字访谈:33年来每天都觉得公司要倒闭,AI竞赛无“终点线”,技术迭代才是关键
华尔街见闻· 2025-12-05 17:39
公司文化与战略 - 公司创始人及CEO黄仁勋保持着强烈的危机感,其经营哲学是公司“距离倒闭还有30天”,并将此心态持续了33年,认为对失败的恐惧是比贪婪更强的驱动力 [1][5] - 公司历史上多次濒临破产,包括1995年的技术路线错误,依靠世嘉500万美元投资和台积电的信任才得以生存,这些经历塑造了其对风险和战略的独特理解 [3] - 公司坚持长期主义与持续迭代,例如2005年推出CUDA时股价暴跌80%,但坚持投入最终成为AI革命的基础设施,认为真正的竞争力在于持续迭代能力,而非一次性突破 [2] - 公司在技术决策上敢于豪赌,例如在芯片流片环节采用直接投产的策略,尽管此前无人成功 [5] AI行业发展与竞争格局 - AI技术竞赛是持续且渐进的,不存在明确的“终点线”或一方突然获得压倒性优势的局面,所有参与者都将站在AI的肩膀上共同进化 [2] - 技术进步的大部分算力被用于提升AI的安全性与可靠性,例如让AI更谨慎地思考、检验答案,而非用于危险用途,过去10年AI算力提升了10万倍 [2] - 能源增长是AI及芯片制造业发展的关键瓶颈,公司认为如果没有促进经济增长的能源政策,就无法建设AI工厂、芯片工厂和超级计算机工厂 [5][20] - 摩尔定律及其迭代意味着计算任务所需能量持续减少,这是技术普及的基础,而公司发明的加速计算在过去10年将计算性能提高了10万倍 [110][111] AI技术对社会与就业的影响 - 判断AI是否会取代某项工作的关键在于区分“任务”和“目的”,AI会消灭那些把手段当成目的的工作,而作为实现更高目的手段的工作则会升级 [3] - 以放射科医生为例,AI虽然横扫了放射学领域,但放射科医生的数量反而增加,因为其核心目的是诊断疾病,而看影像只是辅助任务 [3][4][92][93] - AI有望缩小技术鸿沟,因为它是世界上最容易使用的应用程序,例如ChatGPT用户数量几乎一夜之间增长到近十亿,且能用任何语言交互 [105][106] - 未来世界上越来越多的知识将由AI产生,可能两三年后,世界上90%的知识都由AI合成,但这与学习人类编写的知识在本质上区别不大 [81][83] 英伟达的技术与业务里程碑 - 公司发明的CUDA并行计算架构和加速计算方式是AI革命的基础,其GPU最初用于计算机图形学和游戏,后来成为深度学习的关键硬件 [122][111] - 2012年,多伦多大学实验室利用英伟达的两块GTX 580显卡(SLI配置)训练AlexNet模型,取得了计算机视觉领域的突破性进展,这被视为现代AI的“大爆炸”时刻 [120][121][129][131] - 2016年,公司制造了第一台DGX1超级计算机,成本达数十亿美元,售价30万美元,最初仅OpenAI(当时为非营利机构)的埃隆·马斯克成为其第一个客户 [135][136][137] - 公司的技术演进迅速,2016年的DGX1运算能力为1 petaflop,而九年后同等运算能力的DGX Spark设备尺寸已大幅缩小 [138][139] AI安全与伦理观点 - AI的发展是渐进的,威胁并非凭空出现,其安全性可类比网络安全,防御技术与攻击技术协同进化,且整个社区在协同合作共享信息 [46][50][56] - AI获得意识的可能性极低,关键在于意识的定义涉及自我存在认知和“体验”,而当前AI的定义是拥有知识、智能及执行任务的能力,而非人工意识 [68][70][79] - 军事领域应用AI进行国防是必要且值得肯定的,避免冲突的最佳方法是拥有过剩的军事力量,这能促使各方坐下来谈判 [37][43][44] - 量子计算机可能使现有加密过时,但行业正在致力于后量子加密技术,历史表明防御手段总会随之发展 [53][55]
黄仁勋万字深度访谈:AI竞赛无“终点线”,技术迭代才是关键,33年来每天都觉得公司要倒闭
美股IPO· 2025-12-05 07:43
AI竞赛与技术进步的本质 - AI竞赛没有明确的终点线,技术进步是渐进式的,所有参与者将共同进化[2] - 真正的竞争力在于持续迭代能力,而非一次性突破[2] - 过去10年AI算力提升了10万倍,这些算力主要用于让AI更谨慎地思考、检验答案,而非用于危险的事情[1][2] - 迭代是基于第一性原理的持续修正,而非简单重复[2] 英伟达的创业历程与战略转折 - 1995年因技术路线选择错误而濒临破产,依靠世嘉500万美元的投资才得以生存[1][4] - 在开发Riva 128芯片时,公司资金即将耗尽,通过购买已倒闭公司的仿真器来测试设计,并说服台积电创始人张忠谋在不预先测试的情况下直接投产,最终获得成功[90][91][92] - 早期战略错误导致公司处于竞争劣势,通过解雇大部分员工、缩小规模,并让工程师从Silicon Graphics的教科书学习,以第一性原理重新发明了现代3D图形技术[79][82][83] - 公司将业务焦点从通用3D图形芯片缩小到专为视频游戏优化的芯片,并将技术业务转变为平台业务,从而创造了现代3D游戏市场[84][85][86] - 2005年推出CUDA时股价暴跌80%,但长期坚持投入最终奠定了今天AI革命的基础设施[2] AI对工作的影响与转型 - 判断AI是否会取代某项工作的关键,在于区分“任务”和“目的”[4] - 以放射科医生为例,AI横扫放射学领域后,医生数量反而增加,因为看影像只是“任务”,诊断疾病才是“目的”[4][5][50] - 如果工作内容本身就是任务(如切菜、数据录入),则可能被取代;如果任务只是实现更高目的的手段,工作将会升级[4][52] - AI将消灭那些把手段当成目的的工作,迫使每个人思考自己工作的真正目的[4] - AI的普及可能催生全新的行业,例如机器人制造、维护和个性化服装产业[52][54] AI的安全性、意识与未来发展 - AI不会凭空产生意识,其本质是模仿和学习人类生成的知识与模式,而非拥有经验或情感[4][33][39][42] - 过去两年AI能力提升了约100倍,而额外的计算能力被引导用于让AI进行更多反思、研究和事实核查,从而减少“幻觉”(编造事实),产生更安全、更真实的答案[17][18] - 网络安全领域为AI安全提供了模型,防御社区通过共享信息、最佳实践和补丁进行合作,AI防御技术也将以类似方式演进[21][24] - 对AI军事应用持支持态度,认为强大的防御力量是避免战争的必要条件之一[20] - 未来世界上90%的知识可能将由AI生成,但人类仍需核实事实并基于第一原理进行判断[43][44] 技术普及、能源与计算演进 - AI是世界上最容易使用的应用,有望缩小技术鸿沟,用户只需使用人类语言即可交互[57] - 摩尔定律的每一次迭代都意味着完成计算任务所需的能量减少,这是技术普及的基础[6][58] - 过去十年,通过加速计算将计算性能提高了10万倍,预计十年后对大多数人而言,运行AI所需的能源将微乎其微[6][59] - 能源增长是AI、芯片和超级计算机工厂建设的先决条件,未来可能看到许多公司自建数百兆瓦级别的小型核反应堆[6][11][61][62] 领导力与公司经营哲学 - 公司CEO保持了持续33年的危机感,每天醒来都觉得“距离倒闭还有30天”,这种对失败的恐惧是比追求成功更大的驱动力[1][6][97] - 成功源于艰难的工作、漫长的痛苦、孤独、不确定和恐惧,这部分常被外界忽略[6] - 领导者展现脆弱性与公司成功并不矛盾,这有助于团队及时纠正错误并调整战略[105] - 在快速变化的行业中,领导者需要像“冲浪”一样应对无法完全预测的技术浪潮,而非试图预测所有变量[106][107] - 公司文化的核心是吸引世界上最优秀的计算机科学家,让他们能够专注于创造下一代技术[113] 行业生态与关键合作 - 2012年,AlexNet的突破性成果是使用两张英伟达显卡训练实现的,这成为了现代AI的“大爆炸”时刻[64][68] - 2016年,公司发布了售价30万美元的DGX-1超级计算机,埃隆·马斯克是第一个客户,并将第一台设备交付给他当时支持的非营利AI公司,即后来的OpenAI[70][71][72] - 从DGX-1(1 petaflops,30万美元)到DGX-Spark(1 petaflops,4000美元),体现了九年内技术性能不变而成本与体积急剧下降的进步[74] - 公司与美国前总统特朗普的交流中,强调了本土制造、能源增长和再工业化对美国关键技术领域的重要性[9][11][12]
谷歌AI往事:隐秘的二十年,与狂奔的365天
36氪· 2025-11-27 20:13
公司近期业绩与产品表现 - Gemini应用月活跃用户从上一季度的4.5亿大幅提升至6.5亿[2] - Gemini 3在各类主流基准上展现统治级表现,Nano Banana Pro模型将AI生图精度与想象力提升到新高度[2][43] - 公司进入罕见的产品加速期,接连发布视频模型Veo 3、虚拟世界生成模型Genie 3等“王炸”产品[43][44] 公司AI技术发展历史与积淀 - 公司二十多年间的AI投资贯穿现代深度学习绝大部分关键节点,从拉里·佩奇对“终极搜索引擎”的想象,到“猫论文”、DeepMind、TPU[4][6] - 在Transformer论文发表前十年,世界上几乎所有知名AI人才都曾在公司工作过[5] - 公司首次语言模型实验始于2000年左右,开发出拼写纠错功能,并进化出内部昵称为PHIL的概率语言模型[10][11] 关键技术突破与商业影响 - 2012年“猫论文”使用16000个CPU核心训练九层神经网络,通过无监督学习识别YouTube视频中的猫,证明无监督学习可行性[14][15] - “猫论文”技术催生推荐系统机制,被应用于YouTube并奠定其全球最大视频平台基础,后续被Facebook、Instagram、字节跳动效仿,创造数千亿美元收入[15][17] - 公司开发出Transformer架构,其模型彻底碾压基于LSTM的谷歌翻译方案,证明模型规模越大效果越好[34] 重要收购与人才战略 - 2014年以5.5亿美元收购DeepMind,获得最豪华AI研究团队,但收购间接导致OpenAI、Anthropic、xAI等公司诞生[22][23][24] - 收购DeepMind后,公司向英伟达订购4万块GPU,订单价值1.3亿美元,后继续花费数亿美元购买GPU[25][27] - 为应对ChatGPT威胁,公司将Google Brain和DeepMind合并为Google DeepMind,并召回谢尔盖·布林等顶级人才参与Gemini项目[42] 自研芯片与基础设施 - 为解决GPU成本过高和算力不足问题,公司自研TPU芯片,专门针对神经网络矩阵乘法进行优化,效率远高于当时GPU[28][29][30] - TPU通过降低计算精度提高效率,避免公司向英伟达支付高额溢价(英伟达GPU系统毛利率高达75%至80%)[31] - 自研TPU使公司建立规模几乎与英伟达相当的芯片研发体系,服务于自身和谷歌云客户[30] 战略误判与危机应对 - 公司早期已开发出与ChatGPT接近的聊天机器人Mina,但因失控风险、收入模式冲突和法律风险未发布[36][37] - ChatGPT的出现使公司意识到AI从持续性创新转变为颠覆性创新,对构成生存威胁,内部发布红色警报[41][42] - 公司决定结束多模型并存局面,集中资源打造多模态旗舰模型Gemini,并于2023年5月宣布计划后,同年12月发布公共测试版本[42][43]
预测下一个像素还需要几年?谷歌:五年够了
机器之心· 2025-11-26 15:07
文章核心观点 - 研究重新审视了基于下一像素预测的生成式图像预训练范式,探讨其大规模扩展的可行性与规律 [2][4][6] - 研究发现,下一像素预测的扩展趋势与文本类似但效率低得多,需要比语言模型多10–20倍的token-per-parameter比例才能达到有效学习 [6][15][16] - 不同下游任务(如图像分类与生成)的最优扩展策略存在显著差异,且策略随图像分辨率提升而改变 [7][18][22][23] - 尽管当前计算成本高昂,但研究预测基于原始像素的建模在未来五年内将变得可行,主要瓶颈是计算量而非训练数据 [8][26] 研究方法与实验设置 - 研究从32×32分辨率的图像出发,在多种等算力配置下训练了一系列Transformer模型,最大计算量达到7e19 FLOPs [10] - 采用四种规模的Transformer架构,参数从2800万到4.49亿不等 [11] - 在包含3亿张图像的JFT-300M数据集上进行预训练,在32×32分辨率下完整遍历一遍相当于处理超过3000亿个像素 [12] - 通过下一像素预测目标、ImageNet分类准确率以及Fréchet Distance衡量生成质量这三个指标评估模型性能 [10][13] 关键研究发现 - 像素的语义信息极低,单个像素几乎不包含语义,其颜色值可能对应多种物体的一部分 [10][19] - 像素之间的空间关系非常复杂,不易用序列方式表示,且随着图像分辨率升高,下一像素预测的计算量会急剧增加 [10] - 在32×32分辨率下,图像生成任务需要比分类任务更大的token-parameter比例,其数据规模增长速度是分类任务的三到五倍 [7][18] - 随着图像分辨率从16×16提升至64×64,最优扩展策略明显偏向更大的模型而非更多的数据 [23][24] 未来展望与可行性分析 - 训练算力正以每年四到五倍的速度增长,为逐像素建模的未来可行性提供了基础 [8] - 研究预计在未来五年内,基于原始像素的学习将成为一条可行的发展方向,并能达到具有竞争力的性能 [26] - 像素级模型的主要瓶颈是计算量,而非训练数据的可获得性 [18][26]