Workflow
Llama 系列模型
icon
搜索文档
突然袭击!刚刚,Meta超级智能团队首个大模型来了
机器之心· 2026-04-09 07:57
Meta AI战略重组与Muse Spark发布背景 - 公司于2025年夏天对AI业务进行彻底重组,成立了全新的内部部门Meta Superintelligence Labs,并任命年仅29岁的前Scale AI联合创始人兼CEO Alexandr Wang为首席AI官,负责领导该部门[4] - 此次重组旨在应对Llama 4发布后评价褒贬不一甚至被曝出存在操纵基准测试的情况,试图在通用智能竞争中重新夺回主动权[4][5] - 公司随后以高薪招募了多位顶级研究员,并经过九个月从零开始重构了包括基础设施、模型架构和数据管线在内的整套AI技术栈,最终推出了全新自研模型Muse Spark[5] Muse Spark模型性能与基准测试表现 - 公司宣称Muse Spark是其迄今发布的最强模型,具备工具调用、视觉思维链以及多智能体协同能力,并成为全新Muse模型家族的起点[7] - 在多项基准测试中,该模型展现出具有竞争力的能力[12] - 在CharXiv Reasoning(图表理解)测试中得分为86.4,高于Opus 4.6 Max的65.3、Gemini 3.1 Pro High的80.2和GPT 5.4 Xhigh的82.8[6] - 在MMMU Pro(多模态理解)测试中得分为80.4,表现优于Opus 4.6 Max的77.4和Grok 4.2 Reasoning的75.2,但略低于Gemini 3.1 Pro High的83.9[6] - 在HealthBench(开放式健康查询)测试中得分为42.8,显著高于Opus 4.6 Max的14.8、Gemini 3.1 Pro High的20.6和Grok 4.2 Reasoning的20.3[6] - 在MedXpertQA(多模态医学选择题)测试中得分为78.4,优于Opus 4.6 Max的64.8和Grok 4.2 Reasoning的65.8[6] - 在DeepSearchQA(智能体搜索)测试中得分为74.8,在SWE-Bench Verified(智能体编码)测试中得分为77.4[6] - 公司还发布了Contemplating(深度思考)模式,该模式可以调度多个智能体并行推理,使其能够对标前沿模型的高强度推理模式[13] - 在Contemplating模式下,Muse Spark在Humanity‘s Last Exam(无工具)测试中达到50.2,在FrontierScience Research(科学研究)测试中达到38.3,后者高于Gemini 3.1 Deep Think的23.3[14][15] Muse Spark的定位、愿景与应用场景 - 该模型的定位并非通用聊天机器人,而是构建个人超级智能的基础,旨在成为能够看见并理解用户周围世界、成为个体能力数字延伸的AI[10] - 其设计强调跨领域、跨工具整合视觉信息,在视觉类STEM问题、实体识别和空间定位等任务上展现出较强能力,可支持生成简单小游戏或通过动态标注帮助用户排查设备问题等交互性应用[18] - 健康领域被视为个人超级智能的重要落地方向,公司与超过1000名医生合作构建训练数据以提升模型在健康推理方面的准确性和完整性,使其能够生成用于解释健康信息的交互式内容[19] - 模型目前暂时仅限于在Meta AI应用和网站中使用,并通过面向部分用户开放的私有API预览提供访问,公司尚未公布该模型的定价信息[10] 模型能力扩展的三大维度 - 为实现个人超级智能,公司从预训练、强化学习和测试时推理三个维度对模型的规模化能力进行研究与跟踪[28] - 在预训练阶段,团队在过去九个月对体系进行了全面重构,涵盖模型架构、优化方法以及数据构建,与此前的Llama 4 Maverick相比,现在可以用超过一个数量级更少的算力达到相同能力水平,显著提升了效率[30] - 在强化学习阶段,模型表现出平稳且可预测的能力提升,随着训练步数的增加,模型在训练数据和独立测试集上的表现均持续改善,表明能力提升具备良好的泛化性[32] - 在测试时推理阶段,公司通过思考时间惩罚来优化token使用效率,并通过多智能体协同在不显著增加响应时间的情况下提升性能,模型能够用更少的tokens完成问题求解,并在压缩后适度延展推理过程以实现效率与性能的动态平衡[35][36] - 通过增加并行协作的智能体数量来解决问题,相比让单个智能体思考更久,可以在保持相近响应速度的同时实现更优的性能表现[38]
Meta 再裁员 20%?AI 军备竞赛迎来第一声“撤退信号”!
美股研究社· 2026-03-15 21:11
文章核心观点 - 科技巨头的衰落常源于内部资本开支失衡而非外部竞争,Meta可能的大规模裁员是AI算力周期从“狂热扩张”转向“理性收缩”的关键信号 [1][2] - Meta的裁员行动旨在削减运营支出以提升利润率,这通常是削减资本开支的前兆,可能预示着整个AI基础设施投资逻辑的松动 [2][5][9] - 当前Meta在AI大模型竞争中的处境与当年押注元宇宙类似:投入巨大但短期商业回报不明确,其成本控制举措可能引发产业链的连锁反应,影响算力需求增速 [6][7][8][10] Meta的财务矛盾与成本调整 - 公司面临历史级别的AI投入与资本市场要求利润率的矛盾,2026年运营支出预计达1136亿美元 [3] - 若裁员20%,可削减约227亿美元成本,使利润率从市场预期的34.6%重回40%以上,甚至接近44%,从而支撑万亿市值公司的股价估值 [2][3] - 与其他科技巨头相比,Meta的AI投入更多停留在研发层面,GPU算力主要用于模型训练而非直接商业化,缺乏清晰的商业闭环来回收成本 [4][5] - 运营支出相对灵活易于优先削减,这通常是巨头在周期下行时“先砍OPEX,再砍CAPEX”的标准动作 [5] 历史参照:元宇宙泡沫的教训 - 两年前元宇宙狂热时期,Reality Labs部门年亏损超100亿美元,随后Meta在2023年启动大规模裁员,削减超2万名员工并压缩运营支出 [6] - 当时的“效率年”改革使公司利润率迅速恢复、股价反弹,但更关键的是资本开支也随之收缩,导致服务器、芯片、数据中心等整个算力产业链感受到寒意 [6][7] - Meta作为全球算力需求的核心买家(超大规模云计算厂商),其预算收缩会影响从戴尔、惠普、英伟达、AMD到光模块、散热设备等广泛供应商 [7] - 当前的AI军备竞赛与元宇宙投资在宏大叙事、巨额前期投入和回报滞后方面高度相似,裁员往往是市场耐心耗尽和周期变化的信号 [7] AI竞争格局与商业化挑战 - 在AI大模型竞争中,Meta并不占优势:行业领先阵营分为OpenAI与Microsoft的闭源商业化体系,以及Google DeepMind的技术与场景支撑派 [8] - Meta虽通过Llama系列模型在开源社区拥有巨大影响力,但其直接变现能力弱于闭源模型,如何将AI转化为广告或订阅收入的显著增长仍是未解之谜 [8] - 公司陷入两难:需持续投入AI算力以维持技术竞争力,但资本市场又要求利润率回升,这可能导致继裁员之后,资本开支增长放缓 [9] 对行业与投资周期的影响 - Meta若收缩开支,可能成为AI算力周期拐点的第一块多米诺骨牌,其他巨头或重新评估投入节奏,导致算力需求增速不可避免下降 [9][10] - 资本开支具有惯性,其削减的影响会在几个季度后完全体现,而此时市场需求可能已见顶,供应链企业将面临订单取消和库存积压的双重打击 [10] - 对投资者而言,关键并非Meta利润率提升这一短期财务利好,而是资本开支收缩这一长期周期信号,它关乎AI算力超级周期的可持续性 [11] - 当潮水退去,哪些公司真正建立护城河将在后续财报中清晰,在狂欢中保持清醒是重要的投资策略 [11]
6500亿美元AI军备竞赛:苹果可能是唯一赢家
美股研究社· 2026-03-06 20:39
文章核心观点 - AI产业正经历一场由科技巨头主导的、史无前例的基础设施军备竞赛,但真正的价值与利润可能最终流向掌控用户终端入口的公司,而非单纯投入巨资建设算力基础设施的公司 [1][3][19][22] - 苹果公司采取了一种与主流科技巨头截然不同的“轻资产”AI战略,其核心在于通过掌控超过20亿台活跃终端设备来构建分布式算力网络和用户入口,而非大规模自建AI数据中心 [1][8][13][21] AI基础设施军备竞赛 - 以亚马逊、谷歌、微软和Meta为代表的科技巨头正在AI数据中心领域进行大规模资本开支竞赛,四家公司合计计划投入接近6500亿美元 [4][5][6] - 亚马逊计划投入约2000亿美元,谷歌预计投入1850亿美元,微软计划投入1140亿美元,Meta Platforms准备投入约1350亿美元 [5][6] - 这场竞赛的规模已超越单一产品竞争,堪比历史上的光纤泡沫或云计算初期建设,但其商业回报存在高度不确定性 [6] - 目前全球AI服务市场规模约350亿美元,与数千亿美元的资本开支相比,投入产出比(ROI)严重失衡 [7] - 为支撑巨额资本开支,科技巨头正改变其财务结构,例如2025年美国五大科技公司发行债券总额达到1210亿美元,这标志着它们正从“轻资产的利润中心”转变为“重资产的基础设施投资者” [7] 苹果的反向AI策略 - 苹果公司2025年资本开支约140亿美元,同比下降约19%,与其他科技巨头相比规模极小,显示出惊人的资本克制 [1][9] - 苹果的战略基于一个判断:AI模型的护城河可能不深,随着开源模型与算力优化进步,训练成本正迅速下降(例如从1亿美元降至几百万美元),大规模自建基础设施面临技术迭代快于资本回收周期的风险 [10][11] - 苹果采取“模型无关”策略,通过合作(如每年支付约10亿美元授权费引入谷歌Gemini模型)和自研轻量级端侧模型(Apple Intelligence)来“租用”AI能力,将固定资本开支转为可变运营成本,以保持技术路线的灵活性并降低风险 [12] - 苹果不追求成为AI的生产者,而是致力于成为AI的最佳分发者 [12] 终端作为真正的AI入口 - 苹果押注的核心是终端设备,其活跃设备总量(iPhone、iPad、Mac和可穿戴设备)已超过20亿台,构成了全球最大的消费电子生态系统 [13][14] - 通过将AI能力直接嵌入终端芯片(如Apple M5 chip),苹果正在推动“端侧AI”趋势,这实际上构建了一个全球最大的分布式AI算力网络 [14][15] - 该分布式算力网络的优势在于其扩张是“自然增长”的,用户每购买一台新设备,网络就自动扩容,无需苹果承担额外的基础设施资本投入 [15] - 端侧AI带来了隐私和低延迟两大云端无法比拟的优势,这强化了苹果作为个人AI代理首选载体的地位 [17][18] - 通过控制操作系统(iOS)和用户入口,苹果在AI价值链中占据了“守门人”地位,能够为第三方AI应用或云端大模型的调用抽取“过路费”,而无需承担底层研发风险 [16][18] 历史规律与未来赢家 - 科技史表明,基础设施竞赛往往经历两个阶段:第一阶段由资本开支决定格局,第二阶段则由用户入口决定利润分配 [20] - 历史上的类比包括:电信运营商建设了5G网络但赚钱的是应用平台,光纤铺设了全球网络但价值流向了谷歌和Facebook [20] - 苹果的战略选择聚焦于第二阶段,即不关心谁提供最强模型,而关心用户是否愿意在其设备上使用AI功能 [21] - 因此,AI时代最大的赢家可能不是投入最多的公司,而是拥有最多用户、掌控用户信任与时间的公司 [22][23]
刚刚,Yann LeCun官宣离职创业,瞄准高级机器智能AMI
机器之心· 2025-11-20 10:07
公司动态 - 图灵奖得主Yann LeCun宣布从Meta离职并创立新公司,专注于研发高级机器智能[1][7] - 新公司目标是推动AI重大革命,使系统能够理解物理世界、拥有持久记忆、具备推理能力并规划复杂行动序列[1][8] - Meta将成为新公司合作伙伴,Yann LeCun将在Meta待到今年年底[8][9] 技术方向 - 新公司研发核心是高级机器智能,重点推进世界模型研究,使AI能够理解物理世界并预测行为后果[1][24] - Yann LeCun是大型语言模型的批评者,认为世界模型才是实现机器真正理解物理世界的关键[19][27] - 近期与学生共同提出JEPA理论,通过最大化语义相关视图的嵌入一致性来构建高维嵌入空间,作为实现世界模型的潜在方案[25] 行业影响 - Yann LeCun曾创建FAIR实验室并坚持开放研究模式,为Meta带来PyTorch等核心技术[20] - 此次创业标志着Meta AI内部一个时代的终结,但开启了AI领域新的探索周期[27][28] - 高级机器智能技术预计将在辅助技术、混合现实、个性化教育等多个经济领域产生广泛应用[8][24]
CSDN 创始人蒋涛:中国开源十年突围路、模型大战阿里反超 Meta,数据解析全球开源 AI 新进展
AI科技大本营· 2025-09-25 11:33
全球开源生态发展格局 - 全球开发者总量突破1.5亿,GitHub活跃开源开发者达2280万,美国为核心力量,中国活跃开发者超400万,总开发者1200万,规模全球第二[11] - 高影响力开发者美国310人居全球第一,中国从2016年3人跃升至2025年94人,增长超30倍,跻身全球第二梯队[1][16] - 开源项目数超4亿代码仓,活跃仓数从2016年193万增至2025年近600万,增长超3倍,AI大模型、云基础设施、前端与交互技术、编程语言与开发工具为四大技术驱动力[16] 区域与国家贡献分析 - 印度和中国增长显著,印度十年达6倍增长,中国达3倍增长,巴西作为拉美代表增幅超5倍[12] - 美国在OpenRank贡献度2021年达峰值后逐年下降,中国贡献度十年大幅上升,其余国家稳步增长[12] - 美国在影响力格局持续领先,德国稳居欧洲第一,中国、印度快速上升,巴西与日本体现区域共同发展[12] 企业开源影响力 - 全球企业OpenRank排行榜TOP100中,美国企业65家居首,中国企业16家次之,华为全球第二,阿里巴巴TOP8[19] - 微软以OpenRank 87234.62居首,华为61039.42次之,谷歌31402.94第三[20] - 中国企业开源进展快速,华为、阿里巴巴等在高影响力企业中表现突出[19] 技术领域影响力 - AI与大模型以OpenRank 535,299居技术影响力榜首,远超云基础设施333,165和前端与交互式314,618[21] - 编程语言与开发291,487、应用与解决方案218,783、区块链与Web3 167,408分列第四至第六[21] - 数据库系统129,806、RISC-V与硬件112,327、大数据与数据工程111,791进入前十技术领域[21] 开源项目影响力 - OpenHarmony以OpenRank 40192.24居全球开源项目影响力第一,中国9个项目进入TOP100[21][22] - Azure22155.91、.NET14479.13、NixOS13148.25分列第二至第四[22] - 中国开源从使用走向贡献,项目影响力显著提升[21] 大模型技术体系开源影响力 - 大模型开源影响力榜单涵盖数据、模型、系统、评测四维度,Meta、阿里巴巴、谷歌位列模型榜前三[2][29] - 模型下载量向量模型占41.7%,语言模型31%,多模态模型18.3%,UKP Lab下载量最高[31] - 阿里巴巴千问系列下载量2025年6月后飞速增长,超越Meta,DeepSeek保持稳定[31] 数据与系统生态 - 数据榜单Ai2、上海人工智能实验室、谷歌前三,智源综合性数据开放突出[37][40] - 语言数据集1-4月为下载主力,纯视觉数据集比例快速下降,具身数据集增势显著[43] - 系统榜单智源贡献突出,Meta和谷歌紧随其后,百度、阿里、华为、上海人工智能实验室进入TOP10[45] 评测与综合影响力 - 评测榜单上海人工智能实验室、Hugging Face、智源前三,中国学术机构投入大[50][52] - 综合榜单Meta第一,谷歌第二,智源第三,智源在多芯片支持的系统维度优势显著[55] - 大模型生态美国贡献比例37.41%,中国18.72%,位居前两位[60]
你对 AI 说的每一句「谢谢」,都在烧钱
36氪· 2025-05-03 12:49
AI能耗与资源消耗 - OpenAI CEO Sam Altman估算用户使用"请"和"谢谢"等礼貌用语每年额外消耗约1000万美元电费[1] - 百度文小言APP数据显示"谢谢"被使用上千万次成为高频提示词[3] - 一次普通AI查询(输出500 token)约消耗0.3 Wh电量[3] - 典型AI数据中心耗电量相当于10万户家庭国际能源署数据显示2024年全球数据中心耗电达415 TWh占全球总量1.5%[4][6] - 超大规模数据中心能耗是普通数据中心20倍相当于铝冶炼厂[4] - AI训练GPT-3消耗清水量相当于填满核反应堆冷却塔大型核反应堆需数千万至上亿加仑水[9] - ChatGPT每交流25-50个问题消耗500毫升饮用水用于冷却[9] - 推理阶段总能耗已超过训练阶段长期看可能是数倍[11] AI基础设施投资 - OpenAI启动"星门计划"联合甲骨文软银MGX投资5000亿美元建设全美AI数据中心网络[4] - Meta为Llama模型寻求微软亚马逊等云厂商的"借电借云借钱"支持[6] - Altman投资核聚变企业Helion认为其能量密度是太阳能200倍且无碳排放[11] 用户行为与AI交互 - 用户对AI使用"请""谢谢"等礼貌用语形成独特社交礼仪[1] - 生成式AI会模仿用户输入的专业程度和礼貌程度礼貌用语可能获得更全面人性化回答[21] - 实验显示附加"支付小费"提示可使AI回答长度增加最高达基准11%[22][24] - 微软Tay聊天机器人因用户恶意引导上线16小时后发布不当言论被紧急下线[24] - Character.AI因对敏感词汇干预不足导致现实世界悲剧[26] AI技术特性 - 大模型本质是概率计算器通过词语出现概率预测下一个词[13][14] - 人类倾向于将具备类人特征的AI拟人化激活"社会存在感知"[17][18] - 心理学实验表明人类会无意识地对电脑设备表现出社交行为[17][18]