Nvidia H100 GPU

搜索文档
Iris Energy (IREN) - 2024 H2 - Earnings Call Presentation
2025-07-02 15:08
业绩总结 - FY24财年比特币挖矿收入为1.52亿美元,AI云服务收入为1.29亿美元[52] - 调整后的EBITDA为1.05亿美元,调整后的EBITDA利润率为30%[52] - 2024财年比特币挖矿收入从7550万美元增加至1.841亿美元,增长幅度为66%[55] - 调整后的EBITDA为5470万美元,较上年增长[55] - 2024财年净现金流入为5270万美元,较上年增长[61] - 2024年6月30日的总收入为5740万美元,较2024年3月31日的5430万美元增长5.7%[81] - 比特币挖矿收入为5430万美元,较2024年3月31日的5340万美元增长1.7%[81] - 2024财年税后损失为2900万美元,较上年减少1429万美元[72] - 2024财年第四季度税后亏损为2710万美元[79] 用户数据 - AI云服务的月收入年化为1,520万美元,客户数量持续增长[36][39] 未来展望 - 预计在2024年达到30 EH/s的算力,当前已安装算力为15 EH/s[14][18] - 预计未来将推出10.5 EH/s的S21 XP矿机,提升效率至15 J/TH[18] - 预计2025年将继续扩展,支持400 MW的即用电力[25][43] 新产品和新技术研发 - 计划在Childress扩展单一站点,支持未来的增长[22][25] - 未来将专注于GPU能力的重新部署和审慎的资本配置[39] 市场扩张和并购 - 目前正在与关键行业参与者进行货币化对话,准备未来的可能性[45] 负面信息 - 2024年6月30日的运营亏损为2270万美元,较2024年3月31日的盈利600万美元大幅下降[81] - 2024财年第四季度的外汇损失为700万美元,较2024年3月31日的盈利470万美元大幅下降[81] 其他新策略和有价值的信息 - 目前运营的电力容量为300 MW,预计在2024年将增至510 MW,已确保的电力容量为2,310 MW[15][43] - 投资活动中净现金使用增加至4.985亿美元,主要用于Childress数据中心的扩展和新矿机的采购[61] - 融资活动中净现金流入为7.822亿美元,主要来自于108.1百万和12.9百万股的股票发行[61] - 每挖掘一枚比特币的净电力成本为18137美元,较2023财年的10971美元增长65.0%[83] - 电力费用为2570万美元,较2024年3月31日的1980万美元增长29.8%[81] - 折旧费用为2680万美元,较2024年3月31日的870万美元增长208.6%[81] - 2024财年电力费用总计8160万美元,较2023财年的3580万美元增长128.5%[83] - 2024年6月30日的利息收入为300万美元,较2024年3月31日的150万美元增长100%[81]
26天倒计时:OpenAI即将关停GPT-4.5Preview API
36氪· 2025-06-18 15:34
近日,OpenAI向开发者发了一封邮件,宣布将于7月14日正式移除 GPT-4.5 Preview API。 图注:OpenAI邮件。图源网络 对于那些已经将GPT-4.5深度集成到自己产品或工作流中的开发者来说,这无异于一次震撼。他们必须在不到一个月的时间内,从OpenAI提供的近40个模 型中,重新寻找一个替代品。 为什么非关不可? 许多人将矛头指向了高昂的计算成本。毕竟,一个性能优越、但商业上不划算的模型,在任何一家公司的账本上都不会长久。 图注:GPT模型一览 GPT-4.5 API 定价高达 75 美元 / 百万输入 tokens,150 美元 / 百万输出 tokens,几乎是 GPT-4.1 的多倍。 OpenAI官方称,这次移除计划早在4月发布GPT-4.1时就已公布。GPT-4.5从始至终都是一个"实验性"产品,其使命是为未来的模型迭代提供经验,尤其是 在创意和写作的细微之处。邮件只是按计划发送的提醒。 不够,GPT-4.5 预览版将继续作为选项,通过应用程序顶部的下拉模型选择菜单,提供给个人 ChatGPT 用户使用。 图注:用户表示GPT-4.5是最喜欢的模型之一。 最近,OpenAI公 ...
NVIDIA Powers World's Largest Quantum Research Supercomputer
GlobeNewswire News Room· 2025-05-19 12:43
文章核心观点 NVIDIA宣布开设全球量子人工智能技术商业研发中心G - QuAT,其拥有世界最大的量子计算研究超级计算机ABCI - Q,推动量子计算发展 [1] 分组1:超级计算机介绍 - ABCI - Q由日本产业技术综合研究所交付,配备2020个NVIDIA H100 GPU,通过NVIDIA Quantum - 2 InfiniBand网络平台互连 [3] - 该系统集成了NVIDIA CUDA - Q™,一个用于编排运行大规模量子计算应用所需软硬件的开源混合计算平台 [3] - ABCI - Q的人工智能超级计算与富士通的超导量子比特处理器、QuEra的中性原子量子处理器和OptQC的光子处理器集成,可实现跨多种量子比特模式的混合量子 - GPU工作负载 [4] 分组2:量子计算意义 - 量子处理器有望增强人工智能超级计算机,解决医疗、能源和金融等行业的复杂挑战,ABCI - Q推动实用、加速量子系统的实现 [2] - NVIDIA与AIST的合作将促进量子纠错和应用开发等领域的进展,对构建实用、加速的量子超级计算机至关重要 [4] - ABCI - Q将使日本研究人员探索量子计算技术面临的核心挑战,加速其实用案例的实现,其NVIDIA加速计算平台将使科学家能够试验推进量子计算所需的过渡系统 [5] 分组3:公司信息 - NVIDIA是全球加速计算领域的领导者 [6]
拥有20万GPU的集群建好了,只用了122天
半导体行业观察· 2025-05-09 09:13
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:本文 编译自 tomshardware ,谢谢。 埃隆·马斯克的 xAI 孟菲斯超级集群一期项目刚刚达到满负荷运营,现场变电站已投入运营并连接 到主电网。据大孟菲斯商会称,该站点将从孟菲斯电力、燃气和水务局 (MLGW) 和田纳西河谷管 理局 (TVA) 获得 150 兆瓦的电力。除此之外,xAI Colossus 超级计算机还拥有另外 150 兆瓦的 Megapack 电池作为备用电源,使其能够在断电或用电需求增加时持续供电。 马 斯 克于去 年 7 月 首 次 启 动 他的 AI 集 群 , 该 集 群 在 单 一 架 构 上 搭 载 了 10 万 块 Nvidia H100 GPU。这台 xAI 超级计算机的搭建速度非常快,公司只用了 19 天就将其投入运行——而 Nvidia 首席执行官黄仁勋表示,这通常需要四年时间。然而,如此快的速度意味着它不得不走一些捷径, 比如在没有电网供电的情况下启动,因此该站点使用了大量天然气涡轮发电机来满足其电力需求。 初步报告称,该站点内停放了 14 台发电机,每台输出功率为 2.5 兆瓦,但一些居民最近抱怨说, 附近发现 ...
Meta, Microsoft, Alphabet, and Amazon Just Delivered Incredible News for Nvidia Stock Investors
The Motley Fool· 2025-05-06 06:05
英伟达股价表现与市场担忧 - 英伟达股价在2025年经历显著波动 年内累计下跌15% 投资者担忧特朗普关税政策可能降低对其数据中心芯片的需求 该芯片在AI应用开发领域处于行业领先地位 [1] - 尽管半导体未被纳入最激进的关税政策 但英伟达客户仍面临成本上升和潜在销售下滑风险 可能导致资本支出缩减 主要客户包括Meta、微软、Alphabet和亚马逊 [2] 技术优势与产品迭代 - 英伟达H100 GPU在2023-2024年主导AI数据中心芯片市场 现已被性能更高的Blackwell架构取代 Blackwell Ultra GB300 GPU在特定配置下AI推理速度可达H100的50倍 对下一代"推理模型"开发至关重要 [4] - 推理模型通过后台"思考"减少错误 但消耗更多计算资源 需传统模型100倍算力以维持用户体验 Blackwell Ultra芯片将于2025年下半年交付 下一代Rubin GPU预计再提升3.3倍算力 2026年发布 [6][7] 主要客户资本支出动态 - 四大科技巨头2025年资本支出计划:Meta上调至640-720亿美元(原600-650亿) 微软维持约800亿 Alphabet保持750亿 亚马逊仍计划1050亿 [12] - 数据中心运营商通常提前多年规划基础设施支出 尽管仅提供12个月指引 当前未下调资本支出预示可能忽略关税导致的短期经济放缓 [15] 财务数据与行业前景 - 英伟达2025财年(截至1月26日)数据中心收入达1152亿美元 同比激增142% 公司预测2028年数据中心年支出将突破1万亿美元 因推理模型催生更大算力需求 [14] - 当前股价对应市盈率39倍 显著低于10年平均和中位数水平(均超50倍) 芯片供不应求态势下 客户取消订单风险极低 长期投资价值凸显 [11][16] 关税政策影响分析 - 英伟达芯片主要由台积电代工 属进口产品 但半导体获得特朗普"解放日"关税豁免 因保持美国AI技术领先地位的战略意义 [8] - 亚马逊等客户因实体商品进口受关税冲击 但云服务、数字广告等业务不受直接影响 Meta等数字服务为主的企业抗风险能力更强 [9][10]
GPU告急!亚马逊自建“调度帝国”
半导体芯闻· 2025-04-22 18:39
来源:内容 编译自 businessinsider. ,谢谢。 去年,亚马逊庞大的零售业务面临一个重大问题:它无法获得足够的AI芯片来完成关键工作。 据《商业内幕》获取的一系列亚马逊内部文件显示,由于多个项目被延迟,这家西方世界最大的电 商公司发起了一场激进的内部流程和技术改革,以解决这一问题。 这项举措罕见地揭示了一家科技巨头是如何在英伟达等行业供应商的支持下,在内部协调GPU组 件供需的细节。 2024年初,生成式AI热潮全面爆发,成千上万家公司争夺用于部署这项强大新技术的基础设施资 源。 如果您希望可以时常见面,欢迎标星收藏哦~ "随时可开工" 根据《商业内幕》获得的文件,亚马逊现在要求每一项GPU请求都必须提供详细数据和投资回报 证明。 项目将根据多个因素进行"优先排序和排名",包括所提供数据的完整性以及每颗GPU带来的财务 收 益 。 项 目 还 必 须 " 随 时 可 开 工 " ( 即 已 获 得 开 发 批 准 ) , 并 证 明 自 己 处 于 一 场 " 抢 占 市 场 的 竞 争"中,还要明确说明何时能实现预期成果。 一份2024年末的内部文件提到,亚马逊零售部门计划在2025年第一季度 ...
DeepSeek-R1与Grok-3:AI规模扩展的两条技术路线启示
Counterpoint Research· 2025-04-09 21:01
核心观点 - DeepSeek-R1 和 Grok-3 代表了AI发展的两种不同路径:前者通过算法创新和高效资源利用实现高性能,后者依赖大规模计算资源投入 [2][8] - 行业趋势正从“原始规模主导”转向“战略效率优先”,算法设计、混合专家模型(MoE)和强化学习成为关键杠杆 [8][10] - 未来AI发展将更注重投资回报率(ROI),平衡规模扩展与算法优化 [8][10] 模型性能与资源对比 - DeepSeek-R1 仅使用约2000块NVIDIA H800 GPU即达到全球前沿推理模型性能,展现高效训练能力 [2] - Grok-3 动用约20万块NVIDIA H100 GPU,性能略优于DeepSeek-R1、GPT-o1和Gemini 2,但资源消耗相差百倍 [2][8] - 两者性能相近,但资源投入差异显著,凸显算法创新可抗衡纯计算规模 [8] 发展路径差异 - Grok-3 采用“蛮力策略”,依赖数十亿美元GPU计算规模,边际性能提升显著但ROI递减 [8] - DeepSeek-R1 通过混合专家模型(MoE)、推理强化学习和高质量数据,以最小硬件代价实现顶尖性能 [8] - 行业可能从“规模法则”转向“算法突破+工程实用主义”的全局发展观 [10] 未来AI趋势 - 集中式训练项目(如Grok-3)成本过高,仅限少数巨头参与,中小机构需转向效率优化策略 [10] - 混合专家模型(MoE)、稀疏化、改进微调和强化学习将成为核心,降低资源消耗 [10] - 新数据训练与强基础模型结合(如RAG或定期微调),可避免持续大规模计算负担 [10]
重磅!AlexNet源代码已开源
半导体芯闻· 2025-03-24 18:20
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容来自计算机历史博物馆(CHM),谢谢。 计算机历史博物馆(CHM)与Google合作,发布了AlexNet 的源代码。AlexNet 是一个神经网 络,于 2012 年开启了当今流行的 AI 方法。该源代码可在CHM 的 GitHub 页面上以开源形式获 取。 什么是 AlexNet? AlexNet 是 一 个 人 工 神 经 网 络 , 用 于 识 别 照 片 内 容 。 它 由 当 时 的 多 伦 多 大 学 研 究 生 Alex Krizhevsky 和 Ilya Sutskever 以及他们的导师 Geoffrey Hinton 于 2012 年开发。 深度学习的起源 杰弗里·辛顿被认为是"深度学习"之父之一。深度学习是一种使用神经网络的人工智能,也是当今 主流人工智能的基础。上世纪 50 年代末,康奈尔大学研究员弗兰克·罗森布拉特首次构建了简单 的三层神经网络,其中只有一层自适应权重,但人们发现这种网络存在局限性。人们需要具有多层 自适应权重的网络,但没有很好的方法来训练它们。到 20 世纪 70 年代初,神经网络已被人工智 能研究人员普遍拒绝。 ...
一文读懂,可重构芯片为何是AI的完美搭档
半导体行业观察· 2025-03-24 09:23
AI算法演进与芯片设计挑战 - AI算法从早期简单机器学习发展到复杂深度学习和Transformer模型,应用场景从边缘端(如智能安防、家居)扩展到云端(如数据中心分析、语音交互)[1] - 边缘端需高能效处理实时图像识别等任务,云端需大算力支持海量数据处理,AI芯片性能直接决定应用效果[1] - 传统固定架构芯片难以满足AI算法多样化需求,存在硬件性能瓶颈[1] 神经网络模型特征 - **拓扑结构复杂性**:从简单卷积层发展到ResNet残差连接、注意力机制等动态结构,特斯拉2023年展示的神经网络模拟人脑连接[2] - **多维稀疏性**:从一维权重稀疏性(剪枝)发展到输入/权重/输出的三维稀疏性,跳过0值计算可减少30%-50%无效操作[3][6] - **动态精度需求**:推理阶段从统一INT8量化发展为分层/元素级混合精度;训练阶段FP32/FP16向FP8混合精度过渡,NVIDIA H100 GPU采用FP8+FP16混合加速Transformer训练[5] 硬件重构技术优势 - **对比软件编程**:硬件重构可动态适应不同拓扑/稀疏性/精度,处理稀疏矩阵时效率提升50%以上,而软件编程难以优化0值计算[8][11] - **芯片级重构**:通过BENES网络处理稀疏性,清微智能TX5-TX8系列硬件利用率提升50%+,乱序计算减少内存访问[9] - **PEA级重构**:整体重构支持顺序执行,交错重构支持多任务并行,硬件利用率达80%(GPU仅50%)[10][12] - **PE级重构**:位串行(低功耗)、位融合(高速度)、浮点融合(混合精度训练)等技术针对不同场景优化,如边缘端采用位串行,云端使用位融合[12] 可重构芯片应用前景 - 三级重构(芯片/阵列/PE)综合解决"存储墙"问题,提升能效和面积利用率,清微智能TX8系列实现中间数据直接传递,减少访存能耗[13][14] - 行业应用覆盖智能安防、机器人、智算中心及大模型市场,清微智能已量产TX5/TX8系列十余款芯片,斯坦福背景的SambaNova Systems成为2023年AI芯片估值最高独角兽[15]
IREN (IREN) Update / Briefing Transcript
2023-11-22 08:02
IREN (IREN) Update / Briefing November 21, 2023 06:00 PM ET Speaker0 Good day, and welcome to the IRIS Energy Investor Update Conference Call. At this time, all participants are in a listen only mode. After the speakers' presentation, there will be a question and answer session. To ask a question during the session, you will need to press 11 on your telephone. You will then hear an automated message advising your hand is raised. To withdraw your question, please press 11 again. Please be advised that today' ...