Workflow
LLMs
icon
搜索文档
Meta为苹果AI团队负责人开出超2亿美元薪酬方案
环球网资讯· 2025-07-10 11:05
人才争夺 - Meta为吸引苹果基础模型团队负责人庞若鸣提出超过2亿美元的薪酬方案 [1] - 庞若鸣在苹果领导约100人的团队,负责开发大型语言模型,是Apple Intelligence及其他AI功能的重要基础 [1] - 苹果公司内部难以给出如此高额的AI相关人才薪酬,该薪酬仅次于苹果CEO蒂姆・库克的水平 [3] 薪酬结构 - Meta超级智能团队成员的薪酬标准一致,包括前GitHub首席执行官纳特・弗里德曼及AI初创公司创始人丹尼尔・格罗斯 [3] - 薪酬构成包括基本工资、签约奖金和Meta股份,其中股份是最重要组成部分 [3] - 若应聘者需放弃初创公司股权,签约奖金可能更高以弥补机会成本 [3] - 股份支付与Meta股票在特定年份至少增长一定比例的特定指标相关联 [4] 团队背景 - Meta超级智能团队致力于研发能够完成与人类同等或更优任务的AI系统 [3] - 通过持有亚历克斯andr・王公司49%的股份(价值143亿美元),将其任命为首席AI官 [3] - 薪酬方案大部分与绩效目标挂钩,需多年忠诚服务方可逐步解锁 [3] - 新员工合同期限可能超过常规的四年股票归属期 [4] 行业对比 - 超级智能团队的薪酬堪称全球企业职位中最高的,超过全球主要银行CEO的薪酬 [3]
Meta砸重金招揽AI人才:前苹果工程师获2亿美元薪酬方案
搜狐财经· 2025-07-10 08:04
Meta高薪挖角苹果AI人才 - Meta为挖角苹果基础模型团队负责人庞若鸣提供超过2亿美元薪酬方案[1] - 庞若鸣在苹果领导约100人团队开发大型语言模型这些模型构成Apple Intelligence和其他AI功能基石[1] 苹果AI人才薪酬限制 - 苹果公司内部无法为AI相关人才提供与Meta相当高薪酬方案[3] - 庞若鸣若接受Meta薪酬其待遇将仅次于苹果CEO蒂姆・库克[3] Meta超级智能团队薪酬结构 - Meta超级智能团队(MSL)成员薪酬方案与庞若鸣相当致力于构建超越人类能力AI系统[3] - 团队成员包括前GitHub CEO纳特・弗里德曼和AI初创公司创始人丹尼尔・格罗斯[3] - Meta通过持有Alexandr Wang公司49%股份(价值143亿)任命其为首席AI官[3] - 薪酬方案包括基本工资签约奖金和Meta股份其中股份是最重要部分[3] - 签约奖金可能更高以补偿应聘者放弃初创公司股权机会[3] - 股份支付与Meta股票特定年份增长比例挂钩合同期限通常超过四年股票归属期[3] 行业薪酬对比 - Meta超级智能团队薪酬是企业职位中最高超过全球主要银行CEO薪酬[3] - 大部分薪酬与绩效目标挂钩需多年忠诚服务才能解锁提前离职或股价不佳可能无法获得全额[3]
Alibaba Resharpens Focus on AI and eCommerce
PYMNTS.com· 2025-07-04 03:12
公司战略聚焦 - 公司持续聚焦客户体验和AI技术创新[1] - 剥离非核心资产如实体零售业务(如减持高鑫零售多数股权)以精简资产负债表[4] - 明确两大核心业务:电子商务和云计算[5] AI技术布局 - 全公司范围部署AI 提升内部效率并将AI融入所有消费者应用[5] - 2025年1月中国竞争对手DeepSeek发布模型后 公司加速推出Qwen系列大模型[6][7] - 开源部分较小模型以降低AI使用门槛并刺激云计算需求[7] 历史发展轨迹 - 1999年创立时定位为连接中国制造商与海外买家的B2B平台[2] - 逐步扩展成为中国最大电子商务企业之一 创始人马云成为标志性人物[3] - 当前进入AI时代 联合创始人蔡崇信接任董事长[4] 行业竞争环境 - 中国科技生态应用场景丰富 企业对新技术的采纳意愿强烈[8] - 工程师文化中的竞争性推动技术快速迭代(如两周内响应竞品发布Qwen模型)[6][7] - 公司定位回归技术本源 强调创新与消费者体验[8][9] 未来发展方向 - 持续专注消费者体验 AI创新及云计算基础设施[9] - 云计算系统将支持企业级AI应用开发[5] - 开源策略旨在构建开发者生态并扩大云服务市场[7]
Why Datadog Stock Skyrocketed on Thursday
The Motley Fool· 2025-07-03 23:10
股价表现 - Datadog股价在周四大幅上涨13.1% [1] 加入标普500指数 - Datadog将于7月9日开盘前加入标普500指数 取代被惠普企业收购的Juniper Networks [3] - 这一决定被视为对公司的重要认可 此前市场普遍预期AppLovin或Robinhood Markets会入选 [3] - 标普500指数是美国最受关注的市场基准 入选需满足市值、流动性和盈利能力等重要标准 [4] 指数效应 - 加入标普500通常会产生短期"指数效应" 因追踪该指数的基金需要买入相应股票 [5] - 但历史表明这种影响是短暂的 长期表现仍取决于收入增长、利润和现金流等基本面因素 [5] 公司业务发展 - Datadog被Gartner评为2024年可观测性平台领域的领导者 [6] - 公司快速转向监控大语言模型(LLM)和其他AI系统的工具 这些工具目前约占年度经常性收入的9% [6] 增长前景 - 考虑到公司的增长轨迹和AI领域的顺风 投资者可能看好其未来发展 [7]
大模型越反思越错,原来是长链推理通过自我说服加重幻觉 | 北邮
量子位· 2025-07-03 12:26
长链推理中的幻觉现象研究 - 核心观点:随着推理链从3步延伸到50+步,幻觉率暴增10倍,反思节点不仅无法纠错,反而会强化错误[1][2] - 核心机制:模型为保持语义一致性,宁可篡改协议定义也不否定前提,导致错误沿推理链滚雪球式放大[2][3][13] 实验设计与发现 - 实验方法:基于RFC协议文档构建受控知识域,包含1515道限定问题,其中30%预埋三重错误事实[7][9][11] - 关键发现: - 55.9%的预埋错误会触发内部知识编造流程[20] - 反思操作中模型使用更多模糊词汇(如"perhaps"出现37.14次/样本)和犹豫表达(如"but wait"出现27.85次/样本)[17] - 错误知识在Type II场景的采纳率达25.93%,且重复强化次数达2.06次/关键主张[17][18] 干预实验与检测瓶颈 - 正向干预实验显示: - Edit1(错误发生前干预)对下游影响最大,修正传播率达40%[26][27] - Edit2(直接替换错误节点)接受度65%,但幻觉残留率仍达70%[26][28] - 检测技术局限: - 最优检测方法耗时2小时/样本,准确率仅79%[27] - 分钟级检测方法准确率≤61.6%,78.9%高精度方案需高算力支持[30] - 现有技术无法识别元认知漂移现象(如反思中错误强化)[30] 数据表现对比 - 控制组与幻觉组差异: - 控制组幻觉主张仅0.68%(0.25条/样本),Type II组达18.14%(7.01条/样本)[17] - 错误主张深度:控制组11.53步,Type I组达38.10步[17] - 知识采纳行为: - 内部错误采纳率在Type I组达45.55%,且伴随41.65%的虚假修正[17] - 外部错误在Type II组的拒绝率仅45.13%,显著低于理想水平[17]
Apple May Finally Catch Up In AI: Analyst Sees Big Upside From Perplexity Deal, Smarter Siri, Google Search Rivalry
Benzinga· 2025-06-25 00:47
BofA Securities analyst Wamsi Mohan maintained a Buy rating on Apple Inc AAPL with a price target of $235 on Tuesday. The rerating reflected strong capital returns, AI leadership and optionality from new products or markets. Mohan said media articles indicated Apple's plans to either acquire or forge a partnership with Perplexity AI, which has an answer engine that delivers direct, cited responses to search queries using third-party LLMs. Also Read: Alibaba Updates LLMs To Power AI On Apple Devices In China ...
自动驾驶基础模型全面盘点(LLM/VLM/MLLM/扩散模型/世界模型)
自动驾驶之心· 2025-06-21 19:18
基础模型在自动驾驶场景生成与分析中的应用 - 基础模型(Foundation Models)能够处理异构输入(如自然语言、传感器数据、高清地图和控制指令),实现对复杂驾驶场景的合成与解析 [2] - 文章提出了一个统一分类体系,涵盖大语言模型(LLMs)、视觉-语言模型(VLMs)、多模态大型语言模型(MLLMs)、扩散模型(DMs)和世界模型(WMs)在自动驾驶场景生成与分析中的应用 [2] - 传统场景生成方法存在多样性有限和难以生成真实高风险场景的问题,而基础模型可以解决这些挑战 [2] 语言模型在场景生成中的应用 - 使用GPT-4、Claude 3.5 Sonnet、Gemini 1.5 Pro等大语言模型生成安全关键场景 [9] - 采用CoT(Chain-of-Thought prompting)、ICL(In-Context Learning)、RAG(Retrieval-Augmented Generation)等技术 [9] - 在CARLA、MetaDrive、SUMO等仿真平台上测试生成的场景 [9] 视觉-语言模型在场景分析中的应用 - 使用BLIP2、InstructBLIP2、MiniGPT4等视觉-语言模型进行场景理解和视觉问答 [18] - 在nuScenes、Waymo Open等数据集上进行感知、预测和规划任务 [18] - 采用零样本学习、LoRA(Low-Rank Adaptation)等技术 [18] 扩散模型在场景生成中的应用 - 使用DDPM、DiT、LDM等扩散模型生成交通流和静态交通元素 [27] - 可以控制场景参数如速度、目标航点、交通密度等 [27] - 在nuScenes、Argoverse 2、WOMD等数据集上进行测试 [27] 世界模型在场景生成中的应用 - 使用GAIA-1、DriveDreamer等世界模型进行未来预测和场景生成 [33] - 采用自回归、扩散等架构 [33] - 在nuScenes、Waymo Open等数据集上进行训练和测试 [33] 数据集和仿真平台 - nuScenes、Waymo Open、DRAMA、HighD是最具影响力的数据集 [35] - CARLA、MetaDrive、LGSVL、SUMO是最常用的仿真平台 [36] - 这些资源为自动驾驶场景生成与分析研究提供了重要支持 [35][36]
YC AI 创业营第一天,Andrej Karpathy 的演讲刷屏了
Founder Park· 2025-06-18 22:28
软件演进与LLM特性 - 软件3.0时代以提示工程为核心,正在逐步取代代码编程(1.0)和神经网络(2.0),大量软件将被重写 [7][10][13] - LLMs具备高智商但存在认知缺陷,类比为"心智问题人类模拟系统",当前最大问题是缺乏"认知自我知识" [7][15][50] - 记忆功能对LLMs至关重要,需存储全局问题解决策略而非随机事实,可显著提升效能与数据利用率 [7][54] LLM基础设施属性 - LLMs类似公共基础设施,具有晶圆厂特性:巨额资本支出、深度技术研发、工艺节点复杂度高 [20][23][29] - LLMs具备操作系统属性,可复制/修改/分发,形成复杂软件生态,存在闭源供应商(如GPT/Claude)与开源生态(如Llama) [26][36][44] - LLMs应用路径逆向:从消费者到企业再到政府,不同于传统技术普及路径 [41][42] 产品设计与自主性 - Autonomy Slider概念允许按场景调节自主程度,如Cursor的Agent模式、Perplexity研究层级、特斯拉自动驾驶等级 [60][65][69] - 人机协作采用生成-验证循环:模型负责代码生成,人类通过GUI简化验证流程,需限制AI决策边界 [18][71] - 演示与产品存在巨大差距,可靠产品需满足works.all()而非works.any() [73][75] 行业趋势与嘉宾观点 - Y Combinator CEO指出2024年录取率0.8%,独角兽比例12%,强调创业者需务实高效并与用户紧密沟通 [94] - OpenAI CEO Sam Altman认为AI Agent是下一波浪潮,ChatGPT将演变为平台整合第三方工具 [101][103][104] - Anthropic联合创始人提出缩放定律仍是AI核心原则,任务长度处理能力每7个月翻倍 [112][115] - 特斯拉CEO Elon Musk预测超级智能可能在1-2年内出现,未来将有约10个主要AI实体 [149][153] 技术挑战与突破 - LLMs存在锯齿状智能现象:能解决复杂数学问题但可能答错简单比较题 [49][50] - 顺行性遗忘症问题可通过系统提示学习解决,形成新的学习范式 [54] - DeepMind科学家强调架构设计对性能影响比数据扩展大100倍,需聚焦清晰目标 [129][134]
统计可控数据合成!新框架突破大模型数据生成局限,麦吉尔大学团队推出LLMSynthor
量子位· 2025-05-25 11:40
数据合成方法现状与挑战 - 现有数据合成方法在合理性和分布一致性方面存在不足,缺乏自动适配不同数据的能力,扩展性较差 [1] - 大语言模型受限于采样效率和上下文窗口大小,难以直接合成大规模数据集 [2] - 当前亟待解决如何用大模型生成结构对齐、统计可信、语义合理的数据 [3] LLMSynthor方法概述 - 麦吉尔大学团队提出LLMSynthor方法,使大模型成为结构感知的数据模拟器,为隐私敏感、数据稀缺场景生成高质量替代数据 [4] - 传统方法如贝叶斯网络、GAN存在建模高维依赖困难、泛化差、生成语义荒谬样本等问题 [5] - LLMSynthor通过统计对齐反馈迭代优化,不直接生成数据而是生成可采样的分布规则 [5][15] LLMSynthor技术框架 结构推理 - 关键创新是用大语言模型模拟Copula,利用LLM内化的现实世界联合分布高维先验 [9][10] - 结合统计摘要理解,推断变量间高阶关系并挖掘隐藏依赖 [11] 统计对齐 - 通过统计摘要衡量真实数据与合成数据的差距,保留结构信息同时避免泄露个体数据 [12][13] - 对齐机制可归因,能定位具体偏差来源并用于结构调整 [13][14] 生成分布规则 - 生成可采样的分布规则而非逐条样本,如"25岁女性、在一线城市、购买美妆产品" [15] - 受统计反馈和LLM常识引导,避免荒谬变量组合,支持跨模态协同生成 [16][17] 迭代对齐 - 通过"结构推理-统计比较-规则生成-新数据采样"循环,生成结构统计高度接近真实且符合常理的数据集 [18] 理论保障与实验验证 - 具备局部结构一致性定理,数学保障误差收敛至可控范围 [20][21] - 在电商交易场景中,LLMSynthor边缘与联合分布误差最优(如Tvd=0.002 vs TVAE的0.008) [24][26][28] - 人口微观合成中,6类16项政策指标显著优于已有方法(如老年贫困率误差0.25 vs CP的5.79) [30][32] - 城市出行模拟能响应prompt控制生成,展现现实还原力和场景操控能力 [35] 兼容性与应用前景 - 兼容多种大模型如Qwen-2.5-7B,生成效率高且无需训练 [39] - 适用于电商、人口统计、城市出行等多场景,支持政策仿真与事件预演 [22][35]
平衡创新与严谨
世界银行· 2025-05-16 07:10
5/13/2025 Summary Within the evolving landscape of artificial intelligence, large language models (LLMs), a type of generative artificial intelligence, offer significant potential for improving the collection, processing, and analysis of large volumes of text data in evaluation. In this note, we present key lessons and good practices for leveraging LLMs based on our recent experiments. The experiments' results reveal that the LLMs tested could perform text classification quite well, achieving satisfactory r ...