杰文斯悖论

搜索文档
一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担
AI前线· 2025-07-30 17:09
编译 | 褚杏娟 Anthropic 联合创始人 Jared Kaplan 是一名理论物理学家,研究兴趣广泛,涉及有效场论、粒子物理、宇宙学、散射振幅以及共形场论等。过去几年, 他还与物理学家、计算机科学家们合作开展机器学习研究,包括神经模型以及 GPT-3 语言模型的 Scaling Law。 近期,他在 YC 分享了 Scaling Law 未来如何影响大模型发展,以及对 Claude 等模型的意义。他在演讲中透露,Scaling Law 的发现源于他物理研究中 的习惯:问更基本的、看似"愚蠢"的问题。 在 Jared Kaplan 看来,AI 的大部分价值可能还是来自最强模型。他认为,目前 AI 的发展非常不平衡:AI 在快速进步、事情在迅速变化,模型能力尚未 完全解锁,但我们在释放越来越多的功能。他认为的平衡状态是 AI 发展速度变慢、成本极低。而 AI 的快速进化会让人优先关注能力,而非成本。 他建议大家去构建那些"现在还没法完全跑通"的产品、用 AI 更好地"集成" AI,并快速找到 AI 大规模应用的突破口。这些思考背后,一定程度上也与 Anthropic 的运营策略是相符的。 我为什么会转行做 ...
微软为了AI,买了17亿美金的屎。
数字生命卡兹克· 2025-07-28 01:26
微软投资碳减排项目 - 微软与Vaulted Deep公司签订12年协议,以17亿美元购买490万公吨有机废物进行地下封存 [3][7] - 有机废物包括牲畜粪肥、人类排泄物等,通过高压注入地下1.5公里深的盐穴实现碳封存 [7][9] - 该项目符合美国45Q税收抵免政策,每吨碳封存可获得最高85美元补贴,微软可能通过税收优惠实现部分成本回收 [20][22] AI业务与碳排放矛盾 - 微软2023财年碳排放量较2020年增长23.4%,主要因AI和云计算业务能源消耗飙升168% [14] - GPT-4单次请求耗电0.43瓦时,比谷歌搜索高40%,全球日均7亿次查询年耗电达46万兆瓦时 [28][30][34] - AI模型训练碳排放显著,GPT-4训练排放1.2-1.5万吨CO₂,相当于3200辆汽车年排放量 [26] 碳减排的商业驱动因素 - ESG评分体系促使科技巨头投资环保项目,高评分企业更易获得资本青睐和低融资成本 [16] - 微软计划2030年实现碳负排放,2050年消除历史碳排放,但AI扩张导致减排压力加剧 [12][14] - 碳封存技术通过阻止有机废物分解产生甲烷和CO₂,每吨处理成本约350美元 [7][9] 行业现象与经济规律 - AI效率提升引发"杰文斯悖论",需求激增导致总能耗不降反升 [39][40][42] - 科技公司采取"碳抵消"策略平衡业务扩张与环保承诺,形成新型商业模式 [24][44] - 碳减排项目兼具政策合规与资本回报双重属性,形成产业链联动效应 [22][23]
AI算力需求继续井喷式扩张:英伟达供应持续告急 谷歌TPU引领ASIC后来居上
智通财经网· 2025-06-30 20:46
AI投资趋势 - 未来三年68%的受访CIO计划将超过5%的IT预算投入AI领域 当前占比约25% [1] - AI相关计算支出占IT预算比例预计从当前5 9%增至15 9% 年复合增长率41% 优于XPU半导体收入增长预期的30-35% [4] - 云支出占IT预算比例预计从当前25%提升至38% 年复合增长率9-13% [5] 半导体行业机遇 - AI算力需求推动AI GPU与AI ASIC双路线共同受益 英伟达 AMD 博通 ARM等企业将持续强劲增长 [6] - 谷歌TPU获OpenAI背书 强化ASIC生态领导地位 有望吸引苹果 Cohere等客户迁移 [8] - AI ASIC市场份额有望大幅扩张 与AI GPU趋于对等 当前AI GPU占据90%份额 美国四大科技巨头2026年AI算力支出或达3300亿美元 [9] 算力需求前景 - 推理端AI算力需求呈现"星辰大海"式增长 英伟达Blackwell系列预计创销售纪录 [9][10] - DeepSeek R1及NSA机制推动AI大模型效率提升 驱动AI应用加速渗透 芯片需求或呈指数级增长 [10] - "杰文斯悖论"预示AI大模型应用规模激增将带来史无前例的推理算力需求 [10] 英伟达估值预期 - Loop Capital预测英伟达市值或达6万亿美元 目标股价上调至250美元 [11] - 预计到2028年全球在英伟达AI GPU上的累计支出约2万亿美元 [11]
2025年下半年宏观、政策及资产配置展望:拨云见日
德邦证券· 2025-06-06 21:52
报告核心观点 - 展望下半年,特朗普关税 2.0 摩擦或已达峰,美国通胀隐忧高于衰退,欧洲经济在“夹缝中求生存”,日本经济韧性复苏但有风险点,中国经济可实现 2025 年 5%增长目标,宏观政策关注存量和增量 [2][12][13] - 资产配置应“攻守兼备、以逸待劳”,关注“低通胀”红利、科技产业、政策变量、新消费、债市、商品供需和黄金价格等逻辑 [3][14] 各部分总结 拨云见日,以逸待劳 - 2024 年“制造立国”和“见龙在田”观点获多方位验证,下半年大类资产配置受外部变化、内部趋势和政策变动影响,应把握确定性趋势和应对不确定性 [8] - 中美进入政治新周期,特朗普政府有“重塑全球分配体系”意图,外部对中国存在“误读误解”和“刻板印象”,“拨云见日”需“以我为主、励精图治” [2][9] - “以我为主”可打破“修昔底德陷阱”等叙事,促使“做多中国”力量涌现;“励精图治”以高质量发展应对外部不确定性,办好自己的事、改革破局、重视宏观政策多方面作用 [10][11] 拨云见日,励精图治 “修昔底德陷阱”并非必然 - “修昔底德陷阱”隐喻中美关系,被视为国际关系“铁律”,特朗普和拜登时期均有对华封锁、限制和打压政策,“中美对抗论”叙事造成误读 [16][17] - 破除“修昔底德陷阱”可从三方面看:中国无意改变美国主导的国际秩序;“以备战止战”才是核心逻辑,“必有一战”观点过于粗暴;“中国威胁论”不是“铁板一块”,未来可能从美国内部党争中瓦解 [17][22][24] 大国框架与中心叙事 - “大国框架”以大国视角分析问题,不考虑经济运行真实规律;“中心叙事”忽视“边缘”视角和现象,导致“全球南方”概念兴起 [25][26] - 应坚持共商共建共享的全球治理观,践行真正的多边主义,兼顾各方合理关切,维护国际规则和秩序 [27] 破除“后发劣势” - “后发劣势”观点认为后发国家模仿发达国家技术和管理模式,滞后的社会制度将带来负面影响,中国经济面临挑战时该观点甚嚣尘上 [28] - 以新质生产力助力中国式现代化发展,培育创新动能破解“后发劣势”;“Deepseek”时刻会越来越多,推动国内科技发展,吸引海外投资者关注 [29][32] “经济福利最大论”需纠偏 - “经济福利最大论”认为国民收入总量和分配均等化影响社会经济福利,当前有加大政策刺激力度甚至给居民“撒钱”的声音 [35] - 应关注与人的生活质量、生活水平关系紧密的变量,如生理需求与安全需求、购买力平价的经济增长 [36][44] 走出“唯地产论” - “唯地产论”形成的原因包括房地产投资拉动经济增长、决定经济周期、影响行业景气度、是地方财政重要来源、有正财富效应、吸纳就业和是金融体系核心底层资产等 [46] - 2022 年以来中国进入“去地产化”进程,应从经济、财政、居民财富和就业以及金融风险四个角度打破“固有思维” [47] - 经济增长层面,制造业投资和基建投资对冲地产下行,制造业成为稳增长重要力量,关注产业基础再造等四方面逻辑 [49][51][52] - 土地财政转型,房地产依赖度下降,“土地财政”收入体系涵盖显性和隐性收入,2022 年以来收入规模收缩,占比下降 [53][54]
史诗级合并,AI巨头要来了!
格隆汇APP· 2025-06-04 18:43
市场表现 - A股三大指数集体上涨,上证指数涨0.42%,深证成指涨0.87%,创业板指涨1.11% [1] - 硬科技赛道ETF表现强势,云计算沪港深ETF涨1.4%,计算机ETF涨1.17%,芯片ETF天弘近两日涨超1% [1] - 算力产业链集体反弹,光模块、铜连接方向领涨,太辰光涨14.88%,德科立涨11.56%,新易盛涨7.17% [4][5] - 可控核聚变题材活跃,融发核电涨5.23%,港股中广核矿业大涨超20% [6][7] 行业驱动因素 - 英伟达股价上涨近3%,超越微软成为全球市值最高公司,博通涨超3%创历史新高,带动A股算力基建股反弹 [4] - AI超算中心电力需求激增,单个中心功率达500兆瓦,能源巨头Constellation Energy与Meta签署20年核电供电协议 [8] - 国内核电投资1-4月完成额362.56亿,同比增长36.64%,远超电源投资1.6%的增速 [9] - 英伟达一季度数据中心营收同比增73%,AI推理市场需求高增长,token生成量一年激增10倍 [9] 公司动态 - 海光信息与中科曙光战略重组,中科曙光持股27.96%并入海光信息,预计6月9日复牌,实现"芯-端-云-算"全产业链布局 [11][12] - 计算机ETF(159998)近13日连续资金净流入,累计吸金1.47亿,规模28.48亿为同标的最大 [27][29] - 云计算沪港深ETF(517390)覆盖阿里、腾讯等港股互联网龙头及中科曙光等A股AI硬件公司,连续两日资金净流入 [27][29] - 芯片ETF天弘(159310)规模9.35亿,为深市同标的最大产品 [30] 产业趋势 - AI技术从实验室走向商用,大模型训练催生巨大算力需求,推动硬件、云服务和软件生态升级 [31] - 国产AI算力崛起,华为昇腾、海光、寒武纪等性能与成本综合优势显现,各地智算中心落地加速 [13][14] - 云计算作为AI基础设施,国产规模有望2025年突破万亿,计算机板块迎AI赋能价值重估 [23][25] - "杰文斯悖论"显现,AI效率提升反推芯片总需求增长,英伟达市值修复至3.5万亿美元 [20][21]
阿里云又丢出了核弹
华尔街见闻· 2025-05-07 22:41
阿里云AI战略布局 - 阿里云正式上线Qwen3系列模型"全家桶",包含2个MoE模型和6个稠密模型,参数规模从0.6B到235B,覆盖手机端到旗舰级体验,并一次性开源 [2] - Qwen3-4B小模型性能对标上一代Qwen-32B,发布两小时GitHub Star数超16.9k,显示市场高度关注 [2] - Qwen3采用混合推理架构,全球首个开源"快慢思考"集成模型,能自动识别任务场景切换思考模式,技术领先性显著 [5] 技术突破与成本优化 - Qwen3部署成本仅为DeepSeek-R1的四成(4张H20卡 vs 16张H20卡),性能全面超越国内领先模型 [6] - 模型支持MCP协议并推出Agent原生框架,孵化出爆款应用Manus(基于Qwen的Agent),推动AI应用生态 [13][14] - 阿里云通过"杰文斯悖论"效应刺激AI需求:Qwen3训练成本优化反而带动算力消耗激增,形成正向循环 [6] 集团AI化转型 - 阿里宣布未来三年投入3800亿建设云和AI基础设施,金额相当于近三年累计利润,战略级投入力度空前 [19][20] - 集团所有业务单元2025年绩效考核与AI应用成效挂钩,电商板块200+业务线联合通义团队开发智能功能 [21] - 夸克升级为集团AI旗舰应用,通义APP首批接入Qwen3模型,高德/飞猪/饿了么等快速落地AI功能 [23] 市场影响与财务前景 - 阿里云2024Q4营收317.42亿元(同比+13%),AI收入连续六季度三位数增长,市占率回升至26.1% [28][29] - 高盛预测2026/2027财年阿里云AI收入将达290亿/530亿元,占总收入20%/29%,推动整体收入增速超20% [29] - 摩根大通测算阿里云估值或达1850亿美元(按微软10.5倍PS),带动阿里整体市值从3045亿升至3910亿美元 [29] 行业竞争格局 - Qwen3实现中美大模型代际差抹平,开源生态已吸引90%上市银行/手机/汽车/家电品牌加入 [27] - 阿里构建"云计算底层+MaaS中间层+应用顶层"三位一体架构,布局完整度领跑国内互联网公司 [26][28] - 行业进入Agent元年,百万日活产品Agent化后token消耗激增30万倍,算力需求呈指数级增长 [16]
千问3的屠榜,是AI的一小步,也是阿里的一大步
搜狐财经· 2025-05-05 14:31
阿里AI战略与成果 - 阿里通过Qwen3系列大模型的发布确立了在开源大模型领域的全球领先地位 终结了关于其是否为AI公司的讨论 [2] - Qwen3系列模型在多项基准测试中表现优异 如235B版本在ArenaHard达到95.6分 显著优于OpenAl-o1(92.1)和Deepseek-R1(93.2) [3] - 公司宣布未来三年将投入3800亿人民币建设云和AI基础设施 金额超过过去十年总和 [5] 技术优势与成本控制 - Qwen3-235B仅需4张H20显卡即可部署 成本仅为竞品DeepSeek-R1(需16张H20)的30% [7] - 模型支持从0.6B到235B的全尺寸分类 适配手机/智能眼镜/机器人等多种终端设备 [7] - 具备自适应算力分配功能 可根据需求动态调整思考模式与非思考模式的资源调用 [9] 行业竞争格局 - 中国AI应用需求旺盛 2022年工业机器人安装量达29万台 远超日本等十国总和 [11] - 中国78%受访者对AI持乐观态度 显著高于美国的35% 反映两国市场接受度差异 [10] - 当前ChatGPT单产品月活已超过中国前十大AI产品总和 显示国内应用层仍有差距 [12] 战略定位与生态布局 - 公司采用"云+AI"组合拳战略 将云计算定位为AI时代的核心基础设施 [14] - 通过开源策略构建产业生态 已为夸克/钉钉等内部产品提供AI底层支持 [11][12] - 明确从模型训练向Agent中心时代过渡的技术路线 强化对计算资源的整合能力 [14] 行业发展趋势 - AI投资呈现"杰文斯悖论" 技术进步未降低资源消耗 反而刺激全球算力需求激增 [6] - 中美AI发展路径分化 美国侧重AGI愿景 中国更注重产业落地与实际问题解决 [10] - 中国互联网进入"智能化"十年周期 需将技术优势转化为商业动能与用户福祉 [13]
速递|DeepSeek等开源模型触发云服务定价权崩塌,咨询业是成AI最后付费高地?
Z Finance· 2025-04-03 11:20
人工智能支出趋势 - 大型云客户因价格下跌正在减少人工智能费用的支出 [1] - 网络安全公司Palo Alto Networks发现DeepSeek开源模型成本仅为OpenAI的5%并计划减少AI支出 [1] - 汤森路透在微软和谷歌云上的AI支出"基本持平"得益于模型价格下降 [7] - Intuit转向混合使用免费开源模型和OpenAI更便宜模型减缓了Azure上的AI支出增长 [8] 成本下降驱动因素 - Nvidia服务器芯片在过去一年中更容易以更低价格获取 [2] - 开源模型与OpenAI等商业模型的性能差距缩小导致成本急剧下降 [7] - DeepSeek模型成本仅为OpenAI一小部分引发行业震动 [8] 行业分化现象 - OpenAI、xAI、Anthropic和字节跳动等少数AI开发者推动云服务商收入增长 [6] - 开发AI驱动应用的年轻初创公司仍在增加AI投资 [11] - 普华永道等咨询公司增加AI支出以跟踪客户数据并提供最新技术 [13][14] - 仅OpenAI、Cursor、Glean和Perplexity等少数公司通过AI应用获得可观收入 [15] 商业生态影响 - 微软CEO认为成本下降将遵循杰文斯悖论带动整体AI需求增长 [8] - 微软Copilot和Salesforce Agentforce面临来自低成本竞争对手的定价压力 [16] - 微软将多个Azure销售团队销售配额降低多达40%可能与AI支出放缓有关 [17] 长期展望 - 价格下降可能吸引老旧行业公司加速AI技术采用 [9] - Palo Alto Networks计划在安全软件的其他AI技术领域增加投资 [10] - 工业机器人和复杂白领任务领域仍会为尖端模型支付高价 [12]
黄仁勋没有告诉我们的细节
半导体芯闻· 2025-03-19 18:34
AI模型进展与扩展定律 - AI模型在过去六个月的改进速度显著加快,这一趋势将持续,主要得益于训练前扩展、训练后扩展和推理时间扩展三个扩展定律的协同作用[1] - Claude 3.7展示了卓越的软件工程性能,Deepseek v3大幅降低了上一代模型的成本,OpenAI的o1和o3模型表明更长的推理时间和搜索能带来更好的答案[3] - 行业正经历智能和tokens的爆炸式增长,Nvidia专注于将推理成本提高35倍以实现模型的经济高效部署[3] Nvidia硬件路线图 - Blackwell Ultra B300的FP4 FLOP密度比B200高出50%以上,内存容量升级到每包288GB HBM3E,但带宽保持8TB/s[11] - B300 NVL16将取代B200 HGX外形尺寸,采用16个封装和基板上的GPU芯片,使用CoWoS-L封装技术[12] - B300引入CX-8 NIC,网络速度提高一倍,达到InfiniBand 800G的总吞吐量[13] - Rubin将提供50 PFLOP密集FP4计算能力,比B300提升三倍多,采用3nm工艺和1800W TDP[16][17] - Rubin Ultra将计算能力提升至100 PFLOP密集FP4,HBM容量达到1024GB,是普通Rubin的3.5倍以上[24] Nvidia软件与系统创新 - Nvidia推出Dynamo AI引擎堆栈,简化部署和扩展推理,可能颠覆VLLM和SGLang[39] - Dynamo包含智能路由器、GPU规划器、改进的NCCL Collective推理、NIXL传输引擎和NVMe KV-Cache卸载管理器等关键功能[40][43][44][46][48] - Dynamo使DeepSeek创新民主化,允许社区部署高效的推理系统,特别有助于个人复制和更高交互性的部署[51][52] 网络与通信技术 - Nvidia推出首款共封装光学(CPO)解决方案,显著降低功耗,允许更大的交换机基数和更扁平的网络拓扑[57][58] - 对于400k GB200 NVL72部署,从基于DSP收发器的三层网络转移到基于CPO的两层网络可节省高达12%的总集群功耗[59] - Nvidia推出多款基于CPO的交换机,包括Quantum X-800 3400和Spectrum-X交换机,将于2025和2026年下半年推出[59] 行业影响与趋势 - 随着智能价格下降和能力前沿推进,对智能的需求将无限增长,AI对生活的实际影响仍处于起步阶段[4] - Nvidia通过Blackwell和Rubin等创新持续领先,Blackwell性能比Hopper高出68倍,成本降低87%,Rubin预计性能提升900倍,成本降低99.97%[53][54] - 快速改进的通用平台如Nvidia GPU难以被ASIC等替代方案击败,公司正重建其在计算领域的领导地位[61]
深度解读黄仁勋GTC演讲:全方位“为推理优化”,“买越多、省越多”,英伟达才是最便宜!
硬AI· 2025-03-19 14:03
英伟达GTC 2025技术创新与行业影响 核心观点 - 英伟达通过推理Token扩展、推理堆栈与Dynamo技术、共封装光学(CPO)等创新显著降低AI总拥有成本,巩固其在全球AI生态系统的领先地位 [2][5] - 三条扩展定律(预训练、后训练、推理时)协同作用推动AI模型能力持续提升 [8][10] - 硬件性能提升与成本下降形成"杰文斯悖论"效应:成本降低刺激需求增长而非抑制 [10][12] 推理Token扩展 - 现有模型Token数超100万亿,推理模型Token量达20倍,计算量高出150倍 [12] - 测试阶段需数十万Token/查询,每月数亿次查询;后训练阶段单个模型需处理数万亿Token [13] - 代理能力AI推动多模型协同工作,解决复杂问题 [13] 黄仁勋数学规则 - 第一条规则:FLOPs数据以2:4稀疏度计,实际密集性能为公布值的2倍(如H100 FP16密集性能1979.81 TFLOPs) [15] - 第二条规则:带宽按双向计量(如NVLink5报1.8TB/s=900GB/s发送+900GB/s接收) [16] - 第三条规则:GPU数量按封装中芯片数计(如NVL144含72个封装×2芯片) [16] GPU与系统路线图 Blackwell Ultra B300 - FP4 FLOPs密度较B200提升超50%,内存容量升至288GB/封装(8×12-Hi HBM3E),带宽维持8TB/s [20] - 采用CoWoS-L封装技术,16个GPU封装组成B300 NVL16系统 [21][22] - 引入CX-8 NIC(800G吞吐量),比CX-7提升一倍 [22] Rubin系列 - 采用台积电3nm工艺,50 PFLOPs密集FP4性能(较B300提升3倍) [25][26] - 关键改进:I/O芯片释放20%-30%面积、1800W TDP、128×128张量核systolic array [27][28] - HBM4容量288GB(8×12-Hi),带宽13TB/s(总线2048位,6.5Gbps针速) [32] Rubin Ultra - 性能翻倍至100 PFLOPs密集FP4,HBM4E容量1024GB(16×16层32Gb DRAM) [36] - 系统总高速存储365TB,Vera CPU配1.2TB LPDDR [37] - 采用Kyber机架架构,NVL576配置含144封装×4芯片=576计算芯片 [39][44] 推理堆栈与Dynamo技术 - Smart Router实现多GPU负载均衡,避免预加载/解码阶段瓶颈 [56][58] - GPU Planner动态调整资源分配,支持MoE模型负载均衡 [59][60] - NCCL小消息传输延迟降低4倍,NIXL引擎实现GPU-NIC直连(免CPU中转) [61][62] - NVMe KV-Cache卸载管理器提升56.3%缓存命中率,释放预加载节点容量 [65] CPO技术突破 - 功耗显著降低:400k GB200 NVL72集群总功耗节省12%,收发器功耗占比从10%降至1% [75] - 网络扁平化:三层→两层拓扑,Quantum X-800 CPO交换机提供144×800G端口 [76] - 长期潜力:提升GPU扩展网络基数,支持超576 GPU的规模化部署 [77] 成本效益与行业地位 - Blackwell较Hopper性能提升68倍,成本降87%;Rubin预计性能提升900倍,成本降99.97% [69] - 技术迭代速度使竞争对手难以追赶,形成平台优势 [79][80] - CPO、机架设计等创新持续扩大与竞争对手差距 [78][79]