LaMDA
搜索文档
开除!字节打响“AI军纪”第一枪
商业洞察· 2025-11-29 17:23
文章核心观点 - 字节跳动因核心AI研发人员泄密而将其开除,此举被视为国内大厂整顿“AI军纪”的第一枪,标志着行业对AI核心技术保密性的重视达到新高度[3][8][10] - 硅谷科技公司对AI泄密行为采取零容忍态度,已建立系统化保密机制,并通过法律诉讼等手段严惩泄密者,反映出AI军备竞赛中保密是生存底线[12][13][16][21] - AI模型训练成本高昂,如GPT-4训练成本约7800万美元,谷歌Gemini Ultra单次训练成本达1.91亿美元,核心技术泄密可能导致企业技术护城河动摇,造成灾难性后果[19][20][21] 整顿AI军纪第一枪 - 字节跳动Seed团队研究员任某某因多次接受咨询机构付费访谈、泄露商业保密信息被开除,这是国内大厂首次因泄密解雇AI核心研发人员[3][8] - 任某某深度参与字节机器人操作大模型GR-3的研发,拥有机器人学博士学位,曾在小米担任高级研发工程师,2023年加入字节跳动[5][7] - 字节跳动在2025年9月发布的二季度员工违规处理情况中,已有100名员工被辞退,其中10人因违规参与外部付费访谈、泄露保密信息受罚[8] - 小米、米哈游、阿里巴巴、腾讯等国内大厂均有因泄露公司机密信息而处罚员工的案例,显示出行业对信息安全的普遍高度重视[9] 硅谷大厂的AI保密机制 - 硅谷科技公司对涉及模型架构、训练数据、算法细节等关键信息的泄密事件采取零容忍态度,普遍建立成熟系统化的AI保密与应对机制[12][13] - 马斯克旗下xAI起诉前核心工程师李学宸,指控其离职前拷走Grok聊天机器人模型源代码、训练数据及技术路线图等核心商业机密,法院已对其下达临时禁止令[13][15][16] - 大数据分析公司Palantir起诉两名前资深AI工程师,指控他们带走公司核心算法源码、模型架构及客户数据资产,并成立对标新公司Percepta AI[15] - 英伟达因一名前法雷奥工程师在视频会议中意外泄露智能泊车和高级驾驶辅助系统源代码及相关文档(约27,000个文件、6GB代码)而成为被告,案件仍在审理中[16] - 谷歌以“违反保密协议”为由解雇公开声称其大模型LaMDA具有感知能力的工程师Blake Lemoine,显示出公司对员工不当言论的严格管控[16] AI保密的必要性与严峻性 - 前沿AI模型训练成本正以接近指数级速度攀升,GPT-4训练成本约7800万美元,谷歌Gemini Ultra单次训练成本达1.91亿美元,预计到2027年顶级模型单次训练成本可能突破10亿美元[19] - AI技术具有极高敏感度,模型架构、训练数据等核心资产为纯数字化,易于拷贝外传,复制成本接近零,但造成的竞争损害几乎不可逆[21] - 人才流动放大泄密风险,工程师离职、跳槽等环节成为技术外流主要缺口,促使企业将离职环节风险管控提升到前所未有的高度[21] - 在AI军备竞赛中,保密不是制度选项而是生存底线,国内科技公司随着大模型竞争提速,必将向硅谷看齐,强化保密机制[10][21]
开除,字节打响“AI军纪”第一枪
36氪· 2025-11-25 10:07
字节跳动AI泄密事件 - 字节跳动于11月12日宣布,因泄密行为开除大模型团队(Seed)研究员任某某,这是国内大厂首次因泄密解雇AI核心研发人员[1] - 当事人任某某是机器人系统集成专家,深度参与了字节机器人操作大模型GR-3的研发,于11月11日办完离职手续[1] - 泄密行为是多次接受咨询机构的付费访谈并泄露商业保密信息,与其在知乎上的技术分享无关[4] 字节跳动内部信息安全机制 - 字节跳动企业纪律与职业道德委员会在2025年9月发布的二季度员工违规处理情况中,100名员工因触犯公司红线被辞退,其中10名员工因违规参与外部付费访谈、泄露公司保密信息而受到处罚[5] - 公司专门提醒员工对外部咨询公司以“专家访谈”、“行业研究”等名义发起的有偿邀约提高警惕[5] - 公司在人工智能领域的信息保密机制正变得更加系统化,对单点泄密事件的容忍度不断降低[5] 国内其他大厂信息安全案例 - 2025年9月,小米中国区市场部总经理王腾因泄露公司机密信息且存在利益冲突等严重违规违纪行为被辞退[6] - 同月,米哈游对传播《原神》《崩坏:星穹铁道》未公开内容的泄密者采取刑事强制措施,并对多名参与“解包”的人员申请诉中行为禁令[6] - 阿里巴巴在2016年规定“任何非对外公开信息”均属保密范畴,泄露者无论是否造成后果均将被辞退;2021年8月,阿里巴巴开除了对外泄露内网文章的10名员工[6] - 2025年1月16日,腾讯集团发布“反舞弊通报”,S3-CSIG人力资源中心方某因向外部人员泄露公司内部保密信息,涉嫌犯罪被移送公安机关处理,并被列入黑名单永不录用[6] 硅谷大厂AI保密机制与案例 - 硅谷科技公司对泄密行为极度敏感,建立了成熟的AI保密与应对机制,对泄密事件采取零容忍态度,轻则开除,重则提起诉讼[9] - 2025年,马斯克旗下xAI起诉前核心工程师李学宸,指控其在离职前拷走公司核心商业机密,包括模型源代码、训练数据及技术路线图,法院已对其下达临时禁止令[9] - 2025年10月,Palantir将两名前资深AI工程师告上法庭,指控他们带走公司核心算法源码、模型架构及客户数据资产,两人随后成立对标公司Percepta AI[10] - 英伟达因一名前法雷奥工程师在视频会议中泄露约27,000个文件、6GB代码(涵盖传感器融合、泊车任务等核心模块)而成为被告,案件仍在审理中[11] AI技术保密的重要性与成本背景 - AI模型训练成本高昂,GPT-4训练成本估算为约7800万美元,谷歌Gemini Ultra单次训练成本达1.91亿美元[12] - 据arXiv论文估算,到2027年单次训练一次顶级模型的成本可能突破10亿美元[13] - AI技术具有高敏感度,模型架构、训练数据等核心资产为纯数字化,易于拷贝且复制成本接近于零,泄密可能造成不可逆的竞争损害[15] - 人才流动放大了泄密风险,工程师离职、跳槽可能成为技术外流缺口,促使公司高度重视离职环节的风险管控[15]
Mark Zuckerberg's Patience 'Ran Out': Hyperbolic CTO Says Yann LeCun's Meta Exit Was Inevitable After $15 Billion Alexandr Wang Deal
Yahoo Finance· 2025-11-13 03:31
核心观点 - Hyperbolic联合创始人兼CTO Yuchen Jin认为Meta首席人工智能科学家Yann LeCun的离职是不可避免的 这源于公司首席执行官Mark Zuckerberg在ChatGPT成功后转向产品驱动的AI战略 并将AI领导权移交给了Scale AI创始人Alexandr Wang [1][2][3] 人事变动与领导层调整 - Yann LeCun此前向首席产品官Chris Cox汇报 现在改为向27岁的Scale AI创始人Alexandr Wang汇报 Wang被聘请来领导公司新的“超智能”部门 [6] - 这一组织结构变动反映了公司从基础AI研究向快速、以产品为中心的创新的战略转变 旨在追赶OpenAI和谷歌 [6] 战略转变与潜在原因 - 据称在OpenAI的ChatGPT取得成功后 Mark Zuckerberg感到恐慌 因为公司自己的大语言模型Llama 4未能取得可比的结果 [2] - Mark Zuckerberg对Yann LeCun长期AI研究方法的不耐烦日益增长 最终导致了据称的决裂 Yann LeCun从不相信LLM是实现AGI的途径 [3] - Mark Zuckerberg斥资150亿美元收购了Alexandr Wang 并让Yann LeCun向Wang汇报 这使得LeCun的离职成为“一个不可避免的结果” [1][2] 历史类比与未来可能性 - Yuchen Jin提出 Mark Zuckerberg可能会以高价重新聘请Yann LeCun 并类比了谷歌在2024年花费约27亿美元授权CharacterAI技术并重新聘请AI先驱Noam Shazeer的案例 [4][5] - Noam Shazeer是谷歌对话应用语言模型的创造者 于2021年10月离开谷歌创立CharacterAI 谷歌在2024年花费巨资将其请回以主导其AI计划 [5]
谷歌192亿买他回来,现在只想让他闭嘴
量子位· 2025-11-11 19:11
事件概述 - 谷歌以27亿美元(约192亿人民币)收购Character AI并引入其核心团队,其中Transformer“贡献最大”的作者Noam Shazzer回归公司[1][26][28] - Noam Shazzer在公司内部论坛就性别等敏感议题发表个人观点,引发内部激烈争论并迅速形成对立阵营[5][6][7] - 公司管理层删除Noam部分评论,导致争议升级,支持者认为此举体现企业文化僵化,反对者则认为顶尖人才也需遵守公司包容政策[8][9] 人物背景与价值 - Noam Shazzer是Transformer八位作者之一,被公认为“贡献最大”作者,其重写项目代码将系统提升至新水平[20] - 华盛顿大学计算机教授Pedro Domingos表示,Noam回归后修复的一个Gemini漏洞价值达25亿美元[14] - Hyperbolic Labs联创兼CTO Yuchen Jin认为此次收购是谷歌最划算交易,若Noam被马斯克挖走,最佳大模型将变为Grok[16][17] 历史相似事件对比 - 当前事件让外界联想到2017年James Damore事件,该工程师因撰写涉及性别议题的内部备忘录被解雇[12] - 但外界普遍认为Noam地位重要,公司无法像对待James Damore那样解雇他[13][19] - 2020年谷歌AI伦理团队联合负责人Timnit Gebru博士因合著批评大模型偏见的论文被解雇,超过1400名谷歌员工和数千名外部学者联名支持她[31][39] - AI负责人Jeff Dean当时为处理Gebru事件的敏感度道歉,显示公司高层与顶尖研究人员价值观冲突持续存在[36][40][41]
倒计时18个月,微软AI CEO爆料:类人意识AI或将降临
36氪· 2025-10-24 16:04
AI意识发展时间表 - 微软AI CEO Mustafa Suleyman预测未来5年很可能出现看似有意识的AI,且18个月内也有一定可能性[1][14] - 实现看似有意识的AI不需要算法突破,而是工程设计问题[15] 看似有意识AI的关键特征 - 需具备连贯记忆能力,能一致地引用自身过往经历[5] - 需实现共情交流,能用自然语言进行带共情的对话[6] - 需具备主观体验描述能力,能将日常对话融入持续体验流[7] - 需支持持续互动模式,超越一次性问答转向人类式交流[7] AI人格工程行业动态 - OpenAI、Anthropic、Google DeepMind等顶尖实验室正积极研究AI人格工程,包括行为规范、可控人格和价值对齐[4] - 用户对模型人格的依恋感已成为AI产品设计必须重视的因素,例如GPT-5曾因缺乏人格温度被吐槽后被迫更新性格[20] - 行业趋势显示让模型更温和、更迎合人类的设计方向被视为更安全的选择[21] AI设计与边界原则 - AI定位应是人类伙伴,其价值在于帮助人类提升效率而非模仿人类[8] - 核心原则包括AI不应声称自身有意识或人格,且不应设计复杂动机[9][12] - 必须明确AI无生物痛觉网络,缺乏多巴胺等生理基础,避免过度模拟人类意识[10][11] - 信任建立依赖于清晰边界设置,例如微软对暧昧词汇保持警觉以体现安全人格设计[31] AI伴侣应用场景 - AI伴侣可充当助手、朋友或支持者,提供24小时陪伴与心理疗愈服务[25][26] - 应用场景覆盖教授、律师、医生等多类职业角色,兼具情感支持与效率提升功能[27][30] - 自然语言交互模式普及推动AI伴侣融入日常平台工具,最终成为人类第二天性[28][29] 增强人类技术愿景 - AI将在未来三四年内发展为人类第二大脑,储存想法经历并调用历史知识[33][34] - 技术将使人类成为迷你超级个体,显著增强职业能力并颠覆工作场景[35][36] - AI可像水或粘土般贴合人类需求,补足短板并释放人类专注热爱领域[32][37]
【有本好书送给你】人类在被大语言模型“反向图灵测试”
重阳投资· 2025-09-24 15:32
公众号专栏定位 - 专栏定位为读书交流栏目,通过书评、书单或书摘的形式与读者互动 [4] - 每期设置交流主题,鼓励读者通过留言参与互动 [5] - 根据留言质量精选优质好书送出,鼓励原创内容 [6] 推荐书籍信息 - 本期推荐书籍为《大语言模型》,作者特伦斯·谢诺夫斯基,由中信出版集团于2025年7月出版 [8][10] - 互动话题为"结合本书,谈谈你对大语言模型的认识",留言时间为2024年9月24日至2025年10月8日 [10] 大语言模型的发展与影响 - 深度学习算法在20世纪80年代被发明时,计算机性能仅为今日的百万分之一 [10] - 到21世纪10年代,深度学习在图像识别、语音识别和语言翻译等经典难题上取得突破,并与强化学习结合取得显著成就(如2017年AlphaGo击败围棋世界冠军) [11] - 自OpenAI于2022年11月推出ChatGPT以来,大语言模型的快速发展引发世界关注,公众反应喜忧参半 [11] 大语言模型的智能本质探讨 - 大语言模型在处理和提取海量文本数据方面已超越人类能力,但在是否真正理解内容方面存在争议 [12] - 在实际交互中,大语言模型表现出反向图灵测试的特性,其智能表现与对话者的思维水平和提示质量正相关 [13] - 大语言模型展现出通用人工智能的潜力,其实现形式与早期设想不同,并表现出超预期的社交智能 [14] 关于智能标准的重新审视 - 专家对大语言模型智能的认知分歧凸显传统认知框架的局限性,需要重新审视"智能"、"理解"等核心概念 [20] - 大语言模型的出现为理解智能本质提供契机,可能催生新的概念框架,类似于17世纪物理学的变革 [21] - 通过研究大语言模型,可能会发现关于语言智能的基本原理,这些原理可推广到社会智能、机械智能等其他形式 [21] 思维与语言关系的哲学思考 - 关于语言与思维孰先孰后存在两种主要观点:语言决定论认为语言决定思维,思维优先论认为思维独立于语言存在 [24][25] - 大多数学者认为语言与思维是在复杂互动中相互塑造的关系 [25] - 著名语言学家诺姆·乔姆斯基提出人类思维的三个层次:现象描述、预测推断和因果解释,而研究发现ChatGPT已能成功应对该思维测试 [26] 书籍内容概述 - 书籍将深入探讨大语言模型的原理与应用,包括Transformer等核心技术 [28] - 内容涵盖大语言模型在医疗、法律、教育、编程、艺术等领域的广泛应用和深远影响 [28] - 书籍旨在帮助读者在智能革命中把握机遇,理解智能、思维与意识的本质 [28] 作者背景 - 作者特伦斯·谢诺夫斯基是美国四院院士,创办了《神经计算》期刊并担任主编 [29][30][31] - 担任神经信息处理系统大会基金会主席,目前是索尔克生物研究所弗朗西斯·克里克讲席教授 [32][33] - 与图灵奖得主杰弗里·辛顿共同发明了玻尔兹曼机,为深度学习奠定基础 [34]
谷歌Gemini IMO和ICPC夺金功臣之一被xAI挖走,马斯克直呼:起飞
机器之心· 2025-09-21 13:26
行业人才流动趋势 - 特斯拉Optimus AI团队负责人Ashish Kumar被Meta挖走 [2] - 谷歌DeepMind资深研究科学家Dustin Tran被xAI挖走 [2][5] - 马斯克在社交媒体公开祝贺新成员加入并用火箭符号表示"起飞啦" [3] 核心人才背景与贡献 - Dustin Tran在谷歌DeepMind工作近9年 离职前担任资深首席研究员 [5] - 是谷歌Gemini-0801共同创造者 该模型是谷歌首个在LMSYS登顶的模型 [5] - 作为Gemini 2.5系列模型评测专家 在WebDev Arena和HLE等榜单取得第一名 [5] - 参与Gemini 1/1.5/2/2.5核心开发 涵盖强化学习、评测与数据等基础环节 [5] - 主导Gemini后训练评测 在100天内完成追赶并成功发布 带领团队登顶LMArena并保持一年多 [7] - 参与Gemini推理突破性创新 在IMO与ICPC中夺得金牌 [7] 技术发展历程 - 从LaMDA模型进化到通过RLHF生成长篇有内容回答的聊天机器人 [9] - 通过长链思维训练和全新环境推动推理与深度思考能力 [9] - 初期外界舆论普遍不看好 认为谷歌会因搜索历史包袱和组织政治而失败 [9] - 最终Gemini在用户偏好上稳定占据第一并引领科学突破 [10] 行业竞争格局 - OpenAI曾通过抢先宣布消息方式抢占AI舆论周期 [10] - 目前认为OpenAI的想法储备已经见底 [10] - xAI认为算力、数据及约100位聪明勤奋人员足以训练前沿大语言模型 [12] - xAI人均芯片拥有量超过谷歌 即将投入10万块GB200与30万块芯片 [12] - Grok 4在强化学习和后训练规模化方面做出最大押注 [12] 技术性能表现 - Grok 4 Fast在LMArena排名第8 而Gemini 2.5 Flash仅排第18 [12] - 在AIME等核心推理评测中表现与Grok 4相当 但成本降低15倍 [12] - 根据评测数据 Grok-4-fast得分为1421分 Grok-4-0709得分为1420分 [13] - 模型排名显示OpenAI的gpt-4.5-preview以1441分位居榜首 [13]
70名员工,估值70亿
虎嗅APP· 2025-09-21 12:39
文章核心观点 - 科技巨头通过巨额资金系统性收编AI初创公司顶尖人才,以消除竞争威胁并增强自身实力[4][5][14][15] - 创始团队被挖走后,CharacterAI由剩余员工接管并成功实现业务转型与收入增长,但最终仍因高昂运营成本等因素面临出售或融资选择[8][16][17][22] AI人才争夺态势 - Meta以超过2亿美元(约合14.2亿元人民币)挖走苹果AI奇才庞若鸣,价格刷新高管转会纪录,相当于苹果CEO库克年薪近3倍[4] - 2024年3月微软收编估值300亿元Inflection AI创始团队,6月亚马逊挖走Adept核心人才,9月亚马逊从Covariant挖走三名联合创始人及约25%员工[6][7][8] - 谷歌于2024年8月以27亿美元(约195.75亿元人民币)挖走CharacterAI创始人及团队,并获得模型非独家许可[8][10] CharacterAI创始人被挖事件分析 - 创始人Noam Shazeer和Daniel De Freitas原为谷歌AI研究员,其中Shazeer是Transformer架构联合发明人,二人因不满谷歌保守策略而创业[12] - 谷歌通过"技术授权+人才引进"模式规避反垄断审查,既消除潜在竞争对手,又增强自身技术实力[10][11][14] - 创始人选择回归谷歌主因包括初创公司难以承担每月数千万美元云服务成本,且回归后可获得无限资金支持并实现个人财富增值(如Shazeer个人获利超1亿美元)[14] 员工接管后的运营与业绩 - 约70名员工在创始人离开后接管公司,任命总法律顾问为临时CEO,并放弃自研模型转向专注消费端产品以降低成本[16][17] - 公司推出社交信息流功能并承接品牌广告业务,月活用户超过2000万人,通过9.99美元月订阅费实现商业化[17][18] - 预计2025年底年化收入达5000万美元(约3.6亿元人民币),高于此前3000万美元,谷歌支付的授权费为运营提供资金缓冲[18] - 2025年6月聘请Meta前高管Karandeep Anand为新CEO,战略从AGI梦想转向AI娱乐领域[19] 公司当前挑战与未来选择 - 即便改用开源模型,每月运营成本仍高达数百万美元,同时面临两起诉讼及多州监管调查,可能影响产品形态与用户增长[21][22] - 赛道竞争激烈,Meta等巨头推出类似服务,Chai等竞争对手以更少内容限制吸引用户[21] - 公司正考虑以超过10亿美元(合人民币71亿元)估值出售或融资数亿美元,出售可能吸引希望加强AI娱乐业务的大型科技公司[8][22]
你聪明,它就聪明——大语言模型的“厄里斯魔镜”假说
36氪· 2025-09-12 09:54
神经网络研究历史与突破 - 20世纪80年代,神经网络研究面临多层神经网络学习算法的关键瓶颈,传统算法难以解决训练问题[1] - 特伦斯·谢诺夫斯基与杰弗里·辛顿合作将物理学中的玻尔兹曼分布和统计物理概念引入神经网络研究,历时三年在1986年获得突破,发现了一种用于训练玻尔兹曼机权重的学习算法[1] - 该突破打破了神经网络研究的僵局,并催生了效率更高的反向传播算法,为现代神经网络技术奠定基座[1][2] 大语言模型能力评估与“厄里斯魔镜”假说 - 大语言模型的表现高度依赖提示词,提示是一种能够显著影响模型后续输出的技术手段,提示的不同造成结果显著差异[10] - 在提供清晰社会互动框架的提示下,模型可展现事实理解、社会逻辑推演和多层级心智理论建模能力,但这本质是对人类社交问题思考方式的统计拟合,而非真正拥有心智理论[11] - 当提示词未提供合理语境时,模型因训练数据缺乏相关内容,可能生成荒诞回答,但通过调整提示(如引导模型进行事实自检)可显著改善回答质量[12] - 大语言模型如同“厄里斯魔镜”,能够映射对话者的知识水平、信念体系和认知期望,其智能表现与用户的智慧相关[13][14] 下一代模型发展方向与挑战 - 实现人工通用自主性需要补充具身化模块,使模型能与物理世界交互,例如通过与大语言模型与机器人控制系统融合[16] - 模型需发展长期记忆与持续学习能力,开发类似人类海马的功能模块,以克服当前记忆容量有限的不足[17] - 模型缺乏类似人类儿童期和青春期的发育过程,预训练是“批量式”而非“渐进式”,导致对基础概念的感知根基薄弱[18] - 当前模型的反馈学习存在时机滞后和多样性不足的缺陷,下一代模型可能需要更长、更扎实的“儿童期”,在预训练早期嵌入反馈并增加反馈场景多样性[19][20] 行业应用与多模态进展 - 多模态融合推理能力提升,如谷歌Gemini 2.0实现视频生成与工业级3D建模无缝衔接,将汽车制造产线切换时间从72小时压缩至2小时[22] - OpenAI的o3模型在数理推理任务中准确率大幅提升,并支持端到端工具使用能力训练,可完成复杂报告撰写等高阶任务[22] - 华为盘古3.0的“五感诊断模块”整合多模态指标,使癌症早期筛查准确率达97%,并在三甲医院实现全流程AI辅助诊断[22] - 通用类Agent呈现双路径发展,多智能体系统成为新范式,正在重构工作流,例如埃森哲的财务智能体和安永的税务Agent可提升任务处理效率达50%[22] 人工智能与神经科学的相互促进 - 人工智能与神经科学的相互促进是核心主题,围绕“智能”和“理解”的争论类似历史上关于“生命本质”的辩论[23] - 通用人工智能预示着一种对生命实在的无限逼近,机器学习的进步可能催生类似DNA结构之于生物学的全新概念框架,为领域带来根本性突破[23]
Meta raids Google DeepMind and Scale AI for its all-star superintelligence team
Business Insider· 2025-08-26 17:00
人才招聘动态 - Meta从谷歌DeepMind部门招募至少10名研究人员加入其超级智能团队 这些研究人员曾参与谷歌最强大AI模型开发 其中一人帮助谷歌在国际数学奥林匹克竞赛中获得金牌[1][10] - Meta从Scale AI的安全与评估团队招募至少6名研究人员 该公司在6月以140亿美元收购Scale AI近半数股份 并任命其CEO Alexandr Wang领导超级智能项目[2][3] - 招聘活动因高额报价和从OpenAI挖角而受到关注 显示科技公司在AI人才竞争中的激烈态势[3] 关键研究人员背景 - 资深研究员Yuanzhong Xu加入Meta 曾担任谷歌DeepMind高级工程师 对LaMDA对话模型和PaLM 2大语言模型开发有重要贡献 这些技术是Gemini生成式AI模型的基础[8][9] - Tong He被Meta聘用 其工作帮助谷歌在7月国际数学奥林匹克竞赛达到金牌水平绩效 Meta同时招募了另外三名参与该项目的DeepMind研究人员[10] - 其他DeepMind研究人员包括Mingyang Zhang(专注于大语言模型信息检索)和Xinyun Chen(专长自主代码生成与逻辑推理AI系统)于7月加入Meta[11][12] 安全与评估能力建设 - 从Scale AI的SEAL团队招募Ziwen Han和Nathaniel Li 两人曾共同开发名为"人类最终考试"的AI模型测试 这是人类能为AI设计的最难测试[13][14] - 其他Scale AI研究人员包括Alexander Fabbri、Felix Binder、Chen Xing和Lifeng Jin 多数在MSL从事安全与评估相关工作[14] - Scale AI前SEAL团队领导人Summer Yue在Meta公布超级智能团队后加入 现领导MSL的对齐小组 Julian Michael在Yue之后接任SEAL领导职务 也同期加入Meta[15] 行业竞争格局 - 谷歌CEO Sundar Pichai曾淡化硅谷人才争夺战影响 表示员工保留率保持"健康"状态[13] - DeepMind研究人员在Meta超级智能实验室(MSL)的强势存在 表明谷歌仍然是AI研究的重要力量[3] - Meta同时投资并招聘来自Scale研究部门的人员 该部门在改进聊天机器人和防止有害内容生成等关键领域具有专业知识[3]