Scaling law

搜索文档
中金 | AI进化论(11):GTC 2025,超摩尔定律延续,CPO正式亮相
中金点睛· 2025-03-28 07:33
文章核心观点 - NVIDIA GTC 2025大会上CEO从供需端分析AI硬件行业趋势,带来CPO通信技术更新,需求端缓解算力通缩担忧,供给端芯片、服务器和网络通信有新品发布及技术进展,CPO虽处产业化初期但长期有扩大应用机会 [1][3][4] 行业需求 - 投资者因LLM预训练成本收益比下降和开源模型降成本而担忧算力硬件市场增长,公司重申预训练后、后训练和长思维链推理等场景遵循Scaling Law,加速token消耗扩大算力需求,如强化学习和思维链推理,还预计2028年全球数据中心资本开支超1万亿美元 [7] - AI产业拐点至,推理任务占比在算力需求中增长,推理需求对Blackwell GPU订单量贡献上升,大会发布Dynamo推理软件优化推理任务,协调加速GPU间通信,采用Prefill/Decode分离模式 [9] 硬件更新之芯片&服务器 - 大会公布未来三年数据中心GPU及系统级产品,FP4稠密算力三年翻10x,公司将以GPU die数量命名系统及产品 [14] - Blackwell Ultra预计2H25交付,采用新设计,FP4精度算力较B200系列提升50%,内存配置升级至288GB HBM3E [14] - Vera Rubin自2H26起成主力产品,采用TSMC 3nm工艺,释放I/O die到独立小芯粒,系统级产品以NVL 144架构起步,CPU采用新架构,互联带宽提升;2H27有望推出Rubin Ultra,性能进一步跨越,推出NVL 576机柜产品 [15] - Feymann有望2028年推出,与Vera CPU搭配并迎来HBM升级 [16] 硬件更新之网络 C2C和B2B互联持续迭代 - Scale-up网络中,Vera Rubin NVL144机柜NVLink升级至6,连接总带宽达260TB/s,2027年下半年Rubin Ultra NVL576的NVLink迭代至7,聚合总带宽达1.5PB/s,提升GPU间通信效率 [21] - Scale-out网络中,Vera Rubin NVL144用Connect-X9智能网卡,总带宽28.8TB/s,Rubin Ultra NVL576总带宽提升至115.2TB/s,Rubin平台用Connect-X9和102T Spectrum6 CPO交换机,Feynman平台有望引入Connect-X10和204T Spectrum7 CPO交换机 [22] CPO交换机正式亮相 - CPO构建高密度光互连,缩短光信号电学互连长度,减少信号衰减和失真,未来走向晶圆级封装提升互连密度 [24] - GTC 2025发布三款CPO交换机,IB CPO交换机有望2H25量产交付,两款Spectrum CPO交换机有望2H26交付 [27] - 硅光调制采用微环调制器,尺寸小、功耗低,115.2T IB CPO交换机中每个硅光引擎用MRM调制,单通道速率200Gb/s,节省3.5倍功耗 [30] - CPO处于产业化初期,面临散热、维护和实际TCO高等挑战,本次发布产品基于液冷、可插拔光连接器方案给出解决思路,长期随着技术和生态问题解决,CPO有望扩大应用,光器件与先进封装成核心增量环节 [34][35]
对话2025最火具身智能团队:2个自动驾驶第一人带队,1.2亿美元天使融资震动江湖
量子位· 2025-03-26 18:29
衡宇 李根 发自上海 量子位 | 公众号 QbitAI 可问题是这都已经2025年了……最早出发的具身智能创业者,在3年前的时间点已经下水。进展快速的具身智能公司,也已经开启场景验证和 落地。以及具身智能领域,也从不缺天才和大牛创业者。 还有什么样的创业团队,凭什么在此时此刻搅动如此风云? 一位知情人士说,核心原因是团队豪华,堪称 梦之队 ,而且还是有过硬科技完整落地经验的工程派。也有人拿NBA篮球类比, "库里和约基 奇联手组了队,联盟大结局" ——库里是三分外线第一人,约基奇则被视为最全能的内线中锋,而这家公司背后的核心人物也是 两位自动驾 驶领域的第一人 。 据说这两人联手创业的进展传出后,获得了这样的评价: 陈亦伦带队,牛了;李震宇坐镇,稳了。 他们在上海,组建战队,取名 它石智航 TARS ,竞逐具身智能的GPT时刻。 他们创业的消息,实际流传已久,但现如今随着创纪录的1.2亿美元天使融资曝光,再也藏不住了。 中国具身智能最壕天使轮融资 它石智航(TARS) 官宣的新进展是这样的: 完成天使轮1.2亿美元融资,开启具身智能创业新征程。本轮融资由蓝驰创投、启明创投联合领投,线性资本、恒旭资本、洪泰基 ...
大模型“神仙打架”,掀起复现潮、技术大升级后,我们需要关注什么? | 万有引力
AI科技大本营· 2025-03-25 09:45
大模型技术竞赛与行业动态 - DeepSeek连续五天开源引发复现热潮,阿里巴巴通义实验室和腾讯分别推出ViDoRAG系统和混元快思考模型Turbo S,加速大模型演进 [1] - 马斯克用20万张GPU训练Grok 3超越业界标杆,验证"大力出奇迹"定律 [1] - Claude 3.7 Sonnet编码能力大升级,AI编程技术平权时代加速到来 [1] - DeepSeek论文与Kimi"撞车",稀疏注意力与线性注意力机制成为Transformer后的关键探索方向 [1] - Manus模式的"虚拟机"概念迅速走红,正在重塑大模型运行方式 [1] DeepSeek的技术突破与影响 - DeepSeek R1发布引发全球热议,首次展示模型能以类似人类方式思考,采用第一人称表达推理过程 [6][7] - DeepSeek开源周发布五大项目,涉及算力加速、通信优化和存储处理三大领域 [20][22] - DeepSeek利润率高达545%,颠覆行业对大模型MaaS盈利能力的认知 [33] - DeepSeek的技术路线侧重小粒度Expert,强调效率,相比Grok 3的"暴力美学"更为高效 [45] - DeepSeek的推理架构为搜索体验带来颠覆性变化,推动"边搜边想"的新搜索逻辑 [7] 行业竞争格局与趋势 - 行业可能出现两条发展路径:少数企业继续堆砌算力追求极致模型,大多数企业选择小模型路线 [46] - "百模大战"第一阶段暂时由DeepSeek领先,竞争可能向多模态和具身智能演进 [30][31] - 新兴公司在AI基础设施和大模型训练领域面临巨大投入挑战,难以与头部企业竞争 [27][28] - 阿里Qwen在国际市场表现不俗,但在推理方面未能取得DeepSeek级别的突破 [26] - 量化公司如九坤转型成立AI部门,在系统优化和数据处理方面具有优势 [27] 技术演进与创新方向 - Attention机制面临算法复杂度高的问题,改进方向包括稀疏化和状态空间模型(SSM) [62][63] - DeepSeek提出的NSA(Neural Sparse Attention)在减少计算量的同时提升模型效果 [65] - 合成数据成为重要方向,在多模态、具身智能等领域应用广泛,精准度超越传统数据增强 [75][77] - 长上下文支持技术变革搜索领域格局,Gemini的100万token窗口展现强大能力 [50] - 代码模型可能成为通往AGI的路径,通过持续学习和技能库扩展实现能力进化 [81][83] 应用场景与商业化 - AI编程是首个经过PMF验证的应用场景,Claude 3.7和DeepSeek在代码能力上仍有提升空间 [78][80] - AutoPilot类工具如Devin更适合"万事开头难"场景,成本低于雇佣实习生 [78] - MaaS商业模式面临上游价格和下游支付意愿的双重挑战,运营效率成为关键壁垒 [33][34] - 私有化部署需求增长但面临数据治理挑战,建议企业优先使用API进行验证 [36][39] - 2B领域数据治理和处理服务需求旺盛,国内加速推进数据要素市场建设 [36] 基础设施与工程实践 - 训练大模型成本极高,智源发起OpenSeek开源项目,已吸引100多位贡献者 [9][10] - OpenSeek处理约100亿网页数据,构建4亿条CoT数据集,计划全面开源 [11] - 系统训练层面缺乏成熟框架支持,DeepSeek公开自研五个项目提升训练效率 [12] - 行业Infra团队和人才稀缺,更多关注0到1搭建而非1到100的优化 [21] - 虚拟机技术可能走红,因工具调用需要沙盒化环境执行任务 [84]
中欧基金科技战队:既要抓住产业趋势,也要关注长期价值
雪球· 2025-03-19 16:30
文章核心观点 - 面对AI行业快速变化和复杂挑战,中欧科技战队摸索出工业化组织样本,通过更早更广覆盖、专业化分工与流程化协作、平等沟通机制,提升投研能力和胜率,在科技浪潮中收获成果 [3][6][9] 分组1:AI行业变化与挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,给投研带来全球性、时效性挑战 [1] - 智能机器人发展冲击科技基金经理传统打法,投资颠覆性创新面临量产摸索和数据体系不完善问题 [2] 分组2:投研团队适应AI节奏的方法 曲速引擎:更早更广覆盖 - 建设对AI行业更早更广覆盖的投研平台,助推学习速度领先产业变化,研究AI比新能源更复杂 [6] - 基金经理和研究员早有AI研究储备,中欧基金在科技产品数量、投研人员储备和细分行业覆盖上领先,指数产品布局覆盖全产业链 [7] - 周蔚文和杜厚良有前瞻判断,如机器人行业空间和算力国产化趋势,战队旗下产品在科技浪潮中收获满满 [8][9] 共乘一舰:专业化分工与流程化协作 - 依靠团队专业化分工和流程化协作,形成勾稽关系,如光模块研究需多环节验证 [10] - 团队成员横向学习赋能,发挥各自专长,相互协作补齐短板,挖掘投资机会 [12] 惯性阻尼:平等沟通回避风险 - 周蔚文不强迫基金经理投资,提供附加值和减小回撤方法论,制定平等透明沟通机制应对分歧 [15] - 分歧交锋对基金公司珍贵,做科技股要控制风险,抓住产业趋势同时关注长期价值 [16] 分组3:洞见与团队的重要性 - 公募基金靠洞见领先长期业绩,洞见需靠团队,中欧制造理念下的组织注重平等自由和团队协作 [18]
刚刚,老黄携GB300震撼登场!DeepSeek推理暴涨40倍加速全球最快,26年Rubin问世
创业邦· 2025-03-19 11:17
文章核心观点 英伟达在GTC大会展示过去一年进展,发布新产品路线图,强调Scaling Law未撞墙,未来数据中心建设规模将达万亿美元,还推出开源推理软件和通用机器人模型,有望在AI和机器人领域持续引领发展[1][23][27] 分组1:大会亮点与行业趋势 - 英伟达老黄在GTC大会介绍过去一年进展,称今年GTC是AI的超级碗,每个人都是赢家 [2] - Blackwell全面投产,因AI拐点至,训练推理AI/智能体系统对计算量需求大增 [3] - 英伟达预言未来有工厂的公司将有实体工厂和AI工厂,CUDA核心及算力将引爆行业变革 [4] - 通用计算到尽头,行业正从通用计算机转向加速器和GPU上运行的机器学习软件,计算机成为生成token的工具 [28] - 加速计算趋势无法阻挡,AI将进入各行业,英伟达CUDA - X库为科学领域提供加速框架 [29] 分组2:产品路线图 - AI芯片每年一更,下一代Rubin明年亮相,英伟达构建云上、企业和机器人AI基础设施 [5][8] - 今年下半年将问世的Blackwell Ultra提升训练和测试时推理能力,显存从192GB提升到288GB,GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍 [6][7] - 2026年下半年预计发布Vera Rubin,推理时每秒50千万亿次浮点运算,比Blackwell速度高出一倍多,显存升级为HBM4,带宽从8TB/s提高到13TB/s,扩展NVLink吞吐量提升到260TB/s,机架间CX9链路达28.8TB/s [9][10] - 2027年下半年预计推出Rubin Ultra版本,FP4精度推理性能达15 ExaFLOPS,FP8精度训练性能为5 ExaFLOPS,相比GB300 NVL72性能有14倍提升,配备HBM4e内存,带宽为4.6 PB/s,支持NVLink 7,带宽为1.5 PB/s,较上一代提升12倍,机架支持CX9,带宽达115.2 TB/s [11] - 2028年将上市Feynman,命名致敬美国理论物理学家Richard Feynman [17] 分组3:桌面级产品 - 推出Blackwell RTX PRO工作站和服务器系列,包括数据中心、桌面和笔记本GPU,为开发者等提供AI支持,RTX PRO 6000 Blackwell吞吐量高达1.5倍,第五代Tensor Core每秒4000万亿次AI运算,第四代RT Core性能提升2倍 [19] - 带来两款由Blackwell驱动的DGX个人桌面AI超级计算机DGX Spark和DGX Station,DGX Spark是最小的AI超级计算机,配备128GB内存,核心是GB10 Grace Blackwell超级芯片,每秒1000万亿次AI计算能力;DGX Station将数据中心级性能带到桌面,采用GB300 Grace Blackwell Ultra桌面超级芯片,配备784GB统一内存 [20][22] 分组4:Scaling Law与数据中心 - 老黄称Scaling Law没撞墙,推理计算量需求大增,数据可通过强化学习和合成数据获取,AI处于转折点 [25][26] - 2024年全球TOP 4云服务商买进130万块Hopper架构芯片,预计2028年数据中心建设规模达一万亿美元 [27] 分组5:架构与扩展 - 英伟达通过网络InfiniBand和Spectrum X实现scale up,Spectrum X具备低延迟和拥塞控制特性,成功扩展最大单GPU集群 [14] - 官宣首个共封装硅光子系统,每秒1.6T的CPO,基于「微环谐振器调制器」技术,用台积电工艺构建,可扩展至数十万甚至百万GPU规模 [15][16] - HGX系统架构解决纵向扩展问题,包含8个GPU,通过MVLink 8连接到CPU架,再通过PCI Express连接,用InfiniBand连接多个设备,NVLink交换机让GPU全带宽通信,液冷压缩计算节点,实现一个机架Exaflops级超算 [31][32][33] 分组6:推理Scaling问题与解决 - 推理Scaling是「终极计算」问题,推理中响应时间和吞吐量存在矛盾,需最大化生成token曲线下方面积,还需巨大带宽和浮点运算能力 [36] - 传统LLM用不到500个token快速回答问题但结果错误,推理模型需超8000个token推理简单问题,计算量增加150倍,万亿级参数模型需通过管线、张量和专家并行组合解决,NVlink可实现规模终极Scaling [37][38][39] 分组7:NVIDIA Dynamo - 发布开源推理软件NVIDIA Dynamo,被称为「AI工厂的操作系统」,能协调加速数千个GPU间推理通信,分配LLM处理和生成阶段到不同GPU,优化GPU资源利用 [41][42] - Dynamo能让运行Llama模型的AI工厂在Hopper架构上性能和收入双双翻倍,在GB200 NVL72集群上运行DeepSeek - R1模型时,每个GPU生成token数量提升超30倍,还能动态分配GPU、卸载推理数据降低成本 [42] - Dynamo完全开源,支持PyTorch、SGLang、NVIDIA TensorRT - LLM和vLLM [43] 分组8:性能对比与效益 - 新的Blackwell架构比Hopper强,能耗固定时性能提升25倍,推理模型上高40倍,用MVLink 8技术加速,引入4位浮点数优化,能效高的架构对未来数据中心重要 [44] - Blackwell扩展到MVLink 72加上Dynamo软件效果更好,能适应不同工作负载,老黄认为大型项目投资最新技术如Blackwell可避免落后,买得越多赚得越多 [45][46] 分组9:通用机器人模型 - 预计本世纪末世界劳动力短缺超5000万,通用机器人时代到来,具身智能遵循三大Scaling Law,数据短缺问题可由英伟达Omniverse和Cosmos解决 [48][49] - 官宣世界首个开源、完全可定制的通用人形机器人模型GROOT N1,采用「双系统架构」,慢思考系统推理规划行动,快思考系统转化为精确动作,可执行多步骤任务 [50][51][52] - 与DeepMind、迪士尼研究开发下一代开源的Newton物理引擎,让机器人精确处理复杂任务,以星球大战BDX机器人为灵感的Blue上台互动,老黄预言机器人领域将成最大产业 [54][55][56]
中欧科技战队:制造「工业化」星舰,穿越AI光变纪元
远川投资评论· 2025-03-14 15:07
文章核心观点 - 中欧科技战队面对AI行业快速变化,通过构建对AI行业更早更广覆盖的投研平台、专业化分工与流程化协作以及平等沟通机制,提升投研能力,在科技浪潮中收获成果,强调团队洞见对长期业绩领先的重要性 [2][4][17] 分组1:AI行业变化与投研挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,投研需应对行业快速变化和全球性、时效性挑战 [1] - AI产业供给侧和需求侧全新,与新能源等行业相比,投资过程更复杂,需不断思考AI对行业和公司的影响 [4] 分组2:中欧科技战队投研平台建设 - 中欧科技战队摸索出工业化组织样本,通过对AI行业更早更广覆盖确保认知领先,依靠专业化分工和流程化协作保证学习深度,以平等沟通机制回避风险 [2] - 中欧基金在人工智能等行业配置专门研究员,主动产品线覆盖AI细分行业,指数产品布局占据科技领域较大比重,关注AI顶级大厂动态,做出前瞻判断 [5][6] - 周蔚文早在2013年开始关注机器人,2023年提及人形机器人机会,去年中欧内部达成机器人投资共识并确定关键要素 [6] - 杜厚良去年下半年分享算力国产化逻辑,认为先进制造竞争格局将更集中,未来国产算力芯片市场空间增大 [7] 分组3:投研团队专业化分工与协作 - 中欧投研团队依靠专业化分工与流程化协作,通过全产业链研究的勾稽关系相互补足、验证,如对光模块的研究 [9] - 团队成员在日常研究中横向学习赋能,发挥各自专长,相互交流合作,挖掘投资机会 [11] 分组4:风险控制与沟通机制 - 周蔚文作为管理者提供附加值,摸索减小回撤的方法论,通过长期定价提示风险和参考历史数据统计,制定平等透明沟通机制应对分歧 [14] - 团队成员间的分歧交锋有助于控制风险,做科技股投资要抓住产业趋势,关注长期价值 [15] 分组5:团队洞见与长期业绩 - 公募基金要长期业绩领先需靠团队洞见,中欧科技战队营造平等自由氛围,让洞见在团队中涌现 [17]
聊一下物理Ai和机器人
雪球· 2025-03-09 12:55
长按即可免费加入哦 风险提示:本文所提到的观点仅代表个人的意见,所涉及标的不作推荐,据此买卖,风险自负。 作者:门捷列夫学徒 来源:雪球 上面种种现象说明机器人现在筹码在极少数的人手上 ,我推测应该是机构错过了国产算力、 agent、云计算、AIDC等而选择抱团了机器人(TP、SH、HLYY、ZWJD都是典型的机构筹码和手 笔)。另外据我多年的观察一般一个板块出圈就意味着阶段大顶或历史大顶,而无论是转手帕还 是群侠都没有击垮机器人这个板块是因为新筹码(散户和柚子)都选择了进攻嘉兴那个轴承厂而 不是机构那些票哈哈哈哈,所以抱团筹码一直没有倒手给散户只能接着硬抱。 我一直想弄清楚机器人涨得这么好的底层逻辑(虽然错过了但我认为市场一定有道理,我自己认 知不到位而已)。所以最近做了很多调研和深度思考。 本周和一位前Google和Amazon的Ai科学家聊了一下午,算是彻底想明白这个问题了。 先说结论: AGI的三大要素——算力算法数据。如果说NV代表算力、DS和openai代表算法,那么机器人在现阶 段代表的是数据。可以看成一种capex,也叫做物理Ai。 我们先来回溯一下大模型发展历程,去年6月左右业内在争议"预训 ...
DeepSeek开源引领AI普惠化浪潮
Wind万得· 2025-03-03 06:40
DeepSeek开源策略影响 - DeepSeek成立于2023年,由幻方量化孵化,专注于大语言模型开发,已发布DeepSeek Coder、DeepSeek LLM、DeepSeek V3、DeepSeek R1等多款产品 [2] - DeepSeek V3训练成本仅557.6万美元,性能比肩GPT 4o和Claude-3.5-Sonnet,但成本远低于GPT 4o [2] - DeepSeek R1训练成本仅为同类模型的1/30,性能达到OpenAI o1水平,竞技场评分为1362分 [2][3] - 开源周期间发布FlashMLA、DeepEP、DeepGEMM等代码库,优化DualPipe、EPLB并行策略和3FS文件系统,提升算力效率 [5] - FlashMLA在H800 GPU上实现3000GB/s内存带宽和580TFLOPS计算性能,突破硬件极限 [6] 全球AI大模型进展 - DeepSeek R1发布后7天内用户增长1亿,周活跃用户环比增长超750%,远超Kimi的28%增速 [7] - 武汉市出台政策支持AI关键技术突破,单个项目最高资助2000万元 [7] - xAI发布Grok 3,计算能力提升10倍,支持图像分析和多模态处理,并免费开放 [8] - OpenAI发布GPT-4.5,输入/输出价格达75/150美元/百万token,为GPT-4o的30倍,在事实性问答表现优异但学术推理不及Claude 3.7 Sonnet和DeepSeek R1 [9] - GPT-4.5显示单纯扩大模型规模未必提升全面性能,OpenAI计划将GPT-5转向模型架构优化和功能融合 [10] AI大模型投融动态 - OpenAI拟融资400亿美元,头部企业仍主导资本流向 [14] - 低成本高性能模型改变估值逻辑,中小厂商可通过垂直领域创新获得机会 [14] - 投资重心转向AI应用层(金融、医疗、法律等)和Agent开发,2025年国内亿元级融资包括极睿科技(近1亿人民币B+轮)、源络科技(数亿人民币A轮)等 [15][16]
晚点播客丨MiniMax 闫俊杰聊大模型 2024:一个非共识判断引起的回声
晚点LatePost· 2025-01-22 21:56
模型能力与用户规模关系 - 更好的模型可以导向更好的应用,但更好的应用和更多用户并不会导向更好的模型 [5] - 字节跳动发布 Doubao-1.5-pro 模型技术报告,提到通过用户数据飞轮持续提升模型实际使用体验 [5] - 行业误区认为更好的智能水平依赖更多用户,但实际并非如此 [7] MiniMax 公司概况 - MiniMax 的 AI 社区产品 Talkie 最新月活用户数已超 Character.ai,成为同类产品全球第一 [6] - 中国 AI 社区产品 "星野" 用户数、使用时长和留存率均为第一,高于字节旗下同类产品 [6] - 视频生成平台海螺 AI 是全球访问量最高的视频生成网站 [6] 技术驱动与开源策略 - MiniMax 开源新模型系列以加速技术迭代和加强技术品牌 [7] - 明确公司为技术驱动,追求模型能力上限提升而非依赖用户规模 [7] - 模型架构改进:将传统 Transformer 的非线性注意机制改为线性注意力机制,提升 long-context 处理能力 [29] Agent 与多模态发展 - Agent 需在专业领域达到专业人士水平,处理复杂任务 [25] - 多模态能力在 OpenAI AGI 路线图中占据重要位置 [39] - AI 编程助手 Cursor 的成功并非基于特定方向模型 [41] 市场竞争与公司定位 - 大模型竞争与移动互联网逻辑不同,更多人意识到这一差异 [01:11:19] - 未考虑被字节收购,公司目标非出售而是技术突破 [01:12:29] - 大厂投入和竞争激烈程度在预料之中 [01:16:28] 团队管理与 CEO 反思 - 公司需要两种人才:技术能力强和认知能力突出 [01:23:24] - CEO 决策关键在于组织有共同标准,而非个人决策 [01:26:56] - 去年反思最多的问题是认知能力提升速度不足 [01:32:08] 产品与用户洞察 - Talkie 和星野的领先优势源于更懂用户需求 [01:06:48] - 海螺文本的失利因未坚持技术驱动策略 [01:04:44] - 市场可同时容纳模型和应用公司,无需非此即彼 [01:01:38]
她为何被雷军挖角
投资界· 2025-01-21 15:35
以下文章来源于南风窗 ,作者朱秋雨 南风窗 . AI小厂崛起。 作者 | 朱秋雨 来源 | 南风窗 (ID:shangyejingxiang) 2024年末,一个中国AI小厂,凭借过硬的技术,获得了全球铺天盖地的关注。 圣诞节过后,海外社交媒体以及技术论坛Github都在讨论一个最新发布的开源大模型, DeepSeek-V3。它被外国网友冠以名号——"来自东方的神秘力量"。 多个评测报告里,DeepSeek-V3在世界开源模型之中处在第一梯队,超过扎克伯格的 LLaMa 3.1。拿它比GPT-4o以及Claude 3.5两个最顶尖大模型也毫不逊色,甚至, 其在数学推理、代码生成和长文本处理等指标上,表现更强。 这还不是中国AI公司DeepSeek(中文名:深度求索)全部的"拿手好戏"。更让美国硅 谷等同行摸不着头脑的是,DeepSeek公布的53页技术报告显示,其训练顶尖大模型只 用了2048张H100的GPU集群,花费53天,共计耗费557.6万美元。有专业人员指 出,同等水平之下,世界AI大厂至少要用1.6万张以上的GPU,有的甚至需要10万张 GPU并行训练。 OpenAI早期成员安德烈·卡帕西感慨,D ...