Workflow
Nvidia Blackwell GPU
icon
搜索文档
IREN June 2025 Monthly Update
Globenewswire· 2025-07-07 19:07
文章核心观点 公司2025年6月取得多项重要进展,包括创纪录的月收入和硬件利润、达成自挖矿目标、扩大AI云业务等,在比特币和AI领域展现出良好发展态势 [5][7] 六月亮点 比特币挖矿 - 平均运营哈希率41.1 EH/s,高于5月的38.4 EH/s [4] - 开采比特币620 BTC,略低于5月的627 BTC [4] - 每开采一枚比特币的收入为105,730美元,高于5月的103,345美元 [4] - 每开采一枚比特币的净电力成本为26,259美元,低于5月的27,033美元 [4] - 收入6550万美元,高于5月的6470万美元 [4] - 净电力成本1630万美元,低于5月的1690万美元 [4] - 硬件利润4920万美元,高于5月的4780万美元 [4] - 硬件利润率75%,高于5月的74% [4] AI云服务 - 收入220万美元,与5月持平 [6] - 净电力成本3万美元,与5月持平 [6] - 硬件利润210万美元,与5月持平 [6] - 硬件利润率98%,与5月持平 [6] 其他亮点 - 创纪录的月收入和硬件利润 [5] - 达成年中50 EH/s目标 [5] - AI云业务通过采购约2400台Blackwell GPU得到扩展 [5] - 5.5亿美元可转换债券发行超额认购 [5] - 完成美国国内发行人身份过渡 [5] - 人工智能各垂直领域的客户和融资工作进展顺利 [5] 管理层评论 - 过去一个月公司取得多个重要里程碑,包括创纪录收入、超额认购可转换债券发行、达成自挖矿目标、过渡到美国国内发行人身份以及AI云业务大幅增长 [7] - 公司凭借近3GW的并网电力和深厚的基础设施专业知识,能够在AI堆栈提供灵活解决方案,处于比特币和AI两大变革性技术前沿 [8] 技术评论 比特币挖矿 - 创纪录的月收入,由比特币价格上涨推动,抵消了因月份较短导致的比特币产量下降 [10] - 保持强劲且有韧性的利润率,得益于一流的效率、低净电力成本和能源市场智能算法 [10] - 月底达到50 EH/s的自挖矿目标产能,暂停进一步扩张以优先发展AI业务 [10] AI云服务 - Hopper GPU接近满负荷利用,支持多样化客户组合,年化运营收入达2800万美元 [10] - 采购1300台B200和1100台B300 Blackwell GPU,将提升总GPU数量至4300台,解锁大规模下一代训练和推理能力 [10] - 客户工作进展顺利,持续参与多种业务结构 [10] - 持续采购长周期设备,以实现Childress液冷容量的快速扩张 [10] 活动 - BTC '25会议和2025财年第三季度业绩网络直播回放可查看 [10] - RAISE峰会于2025年7月8 - 9日在巴黎举行 [10] - Canaccord年度增长会议于2025年8月12 - 13日在波士顿举行 [11] 项目更新 人员活动 - 首席商务官Kent Draper于2025年5月在BTC Vegas演讲 [13] 项目进展 - Childress项目5期(150MW)已完成,目前总运营数据中心达650MW [15] - Horizon 1(最高50MW IT负载)预计2025年第四季度交付,基础工程进行中,长周期设备按预期到达 [15] - Horizon 2及后续规划和场地工程正在进行,变电站土建工程完成,目标2026年4月通电 [15] - 连接Sweetwater 1和2的直接光纤环路设计完成,长周期高压设备采购进行中,目标2027年底通电 [15] 非GAAP指标调整 净电力成本 - 6月为1630万美元,低于5月的1700万美元 [20] 比特币挖矿 - 6月硬件利润4920万美元,高于5月的4780万美元 [20] - 6月硬件利润率75%,高于5月的74% [20] AI云服务 - 6月硬件利润210万美元,与5月持平 [20] - 6月硬件利润率98%,与5月持平 [20] 总硬件利润 - 6月为5100万美元,高于5月的5000万美元 [20] 假设和说明 - 总净电力成本按GAAP电力费用、需求响应计划收入和需求响应费用计算,基于当前内部估计,不包括可再生能源证书(REC)购买 [19] - 每开采一枚比特币的净电力成本为比特币挖矿净电力成本除以开采的比特币数量 [21] - 硬件利润为收入减去净电力成本,是一项非GAAP财务指标 [21] - 比特币挖矿和AI云服务的硬件利润率为收入减去净电力成本后除以收入,不包括其他成本 [21] - 说明性年化硬件利润为说明性年化挖矿收入减去假设的净电力成本,仅用于说明目的 [21] - AI云服务年化运营收入为截至2025年6月30日已使用GPU的合同收入 [21]
PCIe 6.0硬盘,首次亮相
半导体芯闻· 2025-05-23 18:26
如果您希望可以时常见面,欢迎标星收藏哦~ 虽然 EVT3 仍处于预生产阶段,但到第三次修订时,大多数硬件问题应该会得到解决,固件/软件 也应该接近成熟。需要提醒的是,EVT1 用于初始硬件启动;EVT2 修复了所有主要硬件问题,可 用于固件开发;EVT3 具有接近最终版本的硬件,因此可用于性能验证、热性能、兼容性和互操作 性测试以及贸易展会上的演示。 来源:内容 编译自 tomshardware ,谢谢 。 在2025 年台北国际电脑展上,有数十款配备 PCIe 5.0 接口的固态硬盘,它们不再让我们感到惊 讶;然而,我们在展会上看到了一款配备 PCIe 6.0 x4 接口的硬盘,其连续读写速度可能达到 30.25 GB/s。 美光公司配备 PCIe Gen6 接口的 9650 Pro SSD 不太可能在短期内推出,但目前,该产品已成为 Astera Labs 等公司的重要测试平台,而 Astera Labs 在开发下一代 AI 平台方面发挥着重要作 用。在此次展会上,Astera Labs 使用美光公司的 PCIe 6.0 SSD 演示了其 Scorpio PCIe 6.0 4x16 交换机、Aries 带 ...
NVIDIA Announces DGX Cloud Lepton to Connect Developers to NVIDIA's Global Compute Ecosystem
GlobeNewswire News Room· 2025-05-19 12:43
文章核心观点 NVIDIA宣布推出AI平台DGX Cloud Lepton,连接全球开发者与云提供商的数万个GPU,同时宣布Exemplar Clouds助力云合作伙伴提升性能 [1][4] 产品发布 - NVIDIA宣布推出AI平台DGX Cloud Lepton,其计算市场连接开发者与全球云提供商的数万个GPU [1] - NVIDIA宣布Exemplar Clouds,帮助云合作伙伴提升安全、可用性、性能和弹性 [4] 云提供商参与情况 - CoreWeave、Crusoe等多家公司将在DGX Cloud Lepton市场提供NVIDIA GPU [2] - Yotta Data Services是亚太地区首个加入NVIDIA Exemplar Cloud计划的云合作伙伴 [5] 平台优势 对开发者 - 可按需和长期使用特定区域的GPU计算能力,支持战略和主权AI运营需求 [3] - 提供统一体验,提高生产力和灵活性,可直接从云提供商购买GPU容量或自带计算集群 [8] - 实现AI应用在多云和混合环境的轻松部署,减少运营负担 [8] - 让开发者快速获取特定区域的GPU资源,符合数据主权法规并满足低延迟需求 [8] 对云提供商 - 提供管理软件,实现实时GPU健康诊断和自动根本原因分析,减少手动操作和停机时间 [4] - 为云提供商提供企业级性能、可靠性和安全性,确保用户体验一致 [8] 平台集成与工具 - 与NVIDIA软件栈集成,加速和简化AI应用开发与部署 [3] - NVIDIA Exemplar Clouds利用DGX Cloud Benchmarking优化AI平台工作负载性能 [5] 产品可用性 - 开发者可申请提前访问NVIDIA DGX Cloud Lepton [6]
Foxconn Builds AI Factory in Partnership With Taiwan and NVIDIA
Globenewswire· 2025-05-19 11:49
文章核心观点 NVIDIA和富士康深化合作,携手台湾政府打造AI工厂超级计算机,为研究人员、初创企业和行业提供先进的NVIDIA Blackwell基础设施,推动台湾AI发展和创新 [1][12] 合作项目情况 - NVIDIA和富士康与台湾政府合作建设AI工厂超级计算机,提供NVIDIA Blackwell基础设施 [1][12] - 富士康子公司大创新公司将建造配备10000个NVIDIA Blackwell GPU的超级计算机,提升台湾AI计算能力 [2][13] - 台湾国家科学技术委员会将投资该超级计算机,加速各行业AI发展和应用 [3][13] 各方表态 - NVIDIA创始人兼CEO黄仁勋表示AI引发新工业革命,很高兴与富士康和台湾合作建设AI基础设施 [4] - 富士康董事长兼CEO刘扬伟称正在构建计算基础设施,为台湾创新突破奠定基础 [4] - TSMC董事长兼CEO魏哲家表示利用AI工厂强化推动AI驱动创新的承诺 [4] - 国家科学技术委员会部长吴政文称计划在台湾南部创建AI产业生态系统,目标是打造智能AI岛 [4] 大创新公司相关举措 - 大创新云AI工厂将采用NVIDIA Blackwell Ultra系统,包括相关网络解决方案 [5] - 大创新云计划参与NVIDIA DGX Cloud Lepton市场,为各类企业提供先进GPU资源 [6] - 富士康将用大创新公司的AI超级计算机加速其三大核心领域的自动化和效率提升 [7] 对不同领域的影响 - 对智慧城市,AI工厂将优化交通系统和民用资源,提升居民生活质量 [8] - 对智能电动汽车,基础设施将支持先进驾驶辅助系统和安全功能 [8] - 对制造业,AI驱动的技术将简化运营并加速产品迭代 [8]
Nvidia Stock Investors Just Got Good News From the Trump Administration
The Motley Fool· 2025-05-17 16:26
人工智能芯片行业动态 - 英伟达(NVDA)股价自2023年1月以来上涨超过800%,成为人工智能热潮中的明星企业 [1] - 特朗普政府撤销拜登政府制定的《AI扩散框架》,该框架原计划于2025年5月15日生效,将限制先进半导体出口至多数国家 [3][6] - 原《AI扩散框架》将国家分为三个层级:一级(18个盟友国无限制)、二级(印度等友好国家限量)、三级(中国等禁运国家完全禁止) [5] 英伟达业务发展 - 公司与沙特企业Humain合作建设AI数据中心,首期部署18,000颗Grace Blackwell超级芯片及InfiniBand网络 [8] - 与沙特数据与人工智能管理局(SDAIA)合作建立主权AI工厂,部署5,000颗Blackwell GPU [9] - 近期在中东达成多项AI基础设施协议,合作伙伴包括AMD、Alphabet等企业 [7] 市场反应与估值 - 华尔街69位分析师中87%给予买入评级,目标价中位数160美元(较当前135美元有18%上涨空间) [11] - 市场预计公司未来四季调整后盈利增长46%,当前市盈率45倍 [12] - 过去四季公司盈利平均超出市场预期7% [12] 政策影响 - 商务部称《AI扩散框架》会抑制美国创新并损害外交关系 [6] - 英伟达公开批评该框架"史无前例且误导",认为将危及全球AI进步 [4] - 分析师预计特朗普政府将改为逐国谈判出口规则 [6]
Supermicro's DLC-2, the Next Generation Direct Liquid-Cooling Solutions, Aims to Reduce Data Center Power, Water, Noise, and Space, Saving on Electricity Cost by up to 40%, and Lowering TCO by up to 20%
Prnewswire· 2025-05-14 21:05
公司技术升级 - 推出新一代直接液冷解决方案DLC-2 显著降低数据中心功耗达40% 相比传统风冷系统 [1][2] - 解决方案覆盖CPU GPU 内存 PCIe交换机等关键部件 减少高速风扇需求 降低噪音至约50dB [1][3] - 采用垂直冷却剂分配歧管(CDM)设计 单机架散热能力提升至250kW 支持更高计算密度 [4] 成本与效率优化 - 整体拥有成本(TCO)降低20% 电力成本节省达40% 温水冷却入口温度提升至45°C 减少冷水机组需求 [2][5] - 服务器机架热捕获覆盖率提升至98% 节省数据中心水资源消耗达40% [5][7] - 混合冷却塔设计整合干式与水塔功能 适应季节性温差 进一步降低资源使用成本 [6] 产品集成与部署 - 4U机架集成8颗NVIDIA Blackwell GPU和2颗Intel Xeon 6 CPU 支持更高冷却剂温度 [3][4] - 全栈方案整合SuperCloud Composer软件 实现数据中心级管理与基础设施编排 [4] - 提供端到端液冷解决方案 包括网络布线 L11/L12验证 现场部署等 加速上线时间 [7] 行业趋势与定位 - 液冷数据中心需求预计占全部安装量的30% 公司技术瞄准AI优化系统的冷却缺口 [2] - 全球制造布局覆盖圣何塞 欧洲和亚洲 确保液冷机架系统的及时交付与质量稳定 [8][9] - 作为全栈IT解决方案商 公司涵盖服务器 AI 存储 IoT等 主板与电源设计能力支撑创新 [9]
推理芯片:英伟达第一,AMD第二
半导体行业观察· 2025-04-03 09:23
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容 编译自 IEEE ,谢谢。 在 MLCommons 发布的最新一轮机器学习基准测试结果中,基于 Nvidia 全新 Blackwell GPU 架构 构 建的 计算 机表现优于其他 所有计算机。但 AMD 的最新 Instinct GPU MI325 却与其 竞争对手 Nvidia H200相媲美。两者的可比结果主要来自对较小规模大型语言模型之一Llama2 70B(700 亿 个参数)的测试。然而,为了跟上快速变化的人工智能格局,MLPerf增加了三个新基准测试,以更 好地反映机器学习的发展方向。 MLPerf 针对机器学习系统进行基准测试,旨在提供计算机系统之间的同类比较。提交者使用自己的 软件和硬件,但底层神经网络必须相同。目前共有 11 个服务器基准测试,今年又增加了 3 个。 MLPerf Inference 联 合 主 席 Miro Hodak 表 示 , " 很 难 跟 上 该 领 域 的 快 速 发 展 " 。 ChatGPT 直 到 2022 年底才出现,OpenAI于去年 9 月推出了其首个可以推理任务的大型语言模型 (LLM),LLM ...