Workflow
RTX4090
icon
搜索文档
RTX5090目前的市场行情
是说芯语· 2025-06-08 21:20
售价 - RTX5090发布时预期售价高达4万元以上,但4个月后价格已跌至2万元出头,部分电商平台低至2.3万元 [2] - 价格下滑原因包括芯片过热问题、多卡组网传闻、厂商初期抬价以及RTX4090改装版的竞争 [2] 租金 - RTX5090初期售价高昂导致租赁市场发展缓慢,5月份价格回落后部分机房开始上架 [3] - 8卡整机扣除机柜租赁费和电费后,投资回本周期约为4年,对AI企业吸引力有限 [3] 算力 - RTX5090单卡FP16精度算力为419 TFLOPS,8卡整机算力约3.4 PFLOPS,300张卡可组成PFLOPS级集群 [4] - 单卡租赁价格约1万元/年,8卡整机配置价格约为30万元 [4] - 算力优势在大型语言模型训练、推理及高性能计算任务中显著,但依赖软件优化和组网效率 [5] 功耗 - RTX5090额定功耗575W,峰值功耗可达900W,8卡整机功耗约6kW [6] - 以每千瓦时电费0.6元计算,8卡整机每月电费约3600元,高功耗增加运营成本并对基础设施提出更高要求 [6] 性能 - RTX5090支持FP8/FP4低精度运算,在AI推理场景中效率显著提升,相比RTX4090推理速度快约50% [7] - 在4K分辨率游戏场景中,RTX5090平均帧率显著优于RTX4090,但性能优势需针对性优化 [7] 发热 - RTX5090发热问题主要集中在芯片和电源连接器,12V-2x6电源连接器存在过热和熔化现象 [8] - 缓解措施包括限制瞬间功率、采用液冷或涡轮风扇、使用原厂电源连接线 [8][11] - 发热问题基本可控,但企业需重视散热系统设计和维护 [9] 组网 - 早期传言RTX5090多卡组网存在"锁卡"或性能瓶颈,但实际测试未发现此类问题 [10] - 锁卡问题可能源于早期驱动不成熟,随着驱动更新已基本解决,组网表现稳定 [12]
RTX5090目前的市场行情
傅里叶的猫· 2025-06-08 20:28
售价 - RTX5090发布时预期售价高达4万元以上 但4个月后价格已跌至2万元出头 部分电商平台同德品牌低至2.3万元 [2] - 价格快速下滑原因包括芯片过热问题影响消费者信心 多卡组网性能瓶颈传闻降低企业采购意愿 厂商初期大幅抬价导致需求不及预期 RTX4090改装48GB版本更具性价比 [2] 租金 - 初期售价高昂导致租赁市场发展缓慢 5月份价格回落后部分机房开始上架RTX5090机型 [3] - 8卡整机扣除机柜租赁费和电费后投资回本周期约4年 对AI企业而言周期较长 [3] - 单卡租赁价格约1万元/年 8卡整机配置价格约30万元 [6] 算力 - FP16精度算力单卡419 TFLOPS 8卡整机约3.4 PFLOPS 300张可组成PFLOPS级算力集群 [4] - 在大型语言模型训练 推理及高性能计算任务中具备显著优势 但需依赖软件优化和组网效率 [4] 功耗 - 额定功耗575W 峰值功耗瞬间高达900W 8卡整机功耗约6kW [7] - 按每千瓦时电费0.6元计算 8卡整机每月电费约3600元 高功耗增加运营成本并对机房散热供电系统提出更高要求 [7] 性能 - 支持FP8/FP4低精度运算 显著提升AI推理效率 与RTX4090相比推理速度快约50% [8] - 4K分辨率下游戏平均帧率显著优于4090 但性能优势发挥需针对性优化 [8] 发热 - 发热问题集中在芯片和12V-2x6电源连接器 出现过热和熔化现象 发生概率较低但需关注 [9] - 缓解措施包括限制瞬间功率 采用液冷或涡轮风扇 使用原厂电源连接线 [9] 组网 - 早期多卡组网锁卡或性能瓶颈传闻源于驱动不成熟 随着驱动更新问题已基本解决 [11] - NVLink和PCIe组网表现稳定 适合构建高性能AI集群 [11]
AI芯片,需求如何?
半导体行业观察· 2025-04-05 10:35
行业格局变化 - 2023年AI推理领域出现新趋势,传统云服务商(AWS、Azure、谷歌云)之外涌现大量配备Nvidia芯片的GPU云提供商,形成新的竞争格局[1] - 行业出现重大转变,大多数AI基础设施开始在三大云提供商之外构建,创造新的市场机会[1] - 新兴GPU云提供商建立的数据中心配备数千个Nvidia芯片,推动AI推理等计算需求[1] Parasail公司概况 - 由Mike Henry和Tim Harris于2023年底创立,获得1000万美元种子资金[1] - 商业模式类似电力公司,连接AI推理需求方与GPU计算资源供应方[1] - 提供聚合的无合同GPU容量,宣称超过Oracle云基础设施规模[2] - 使用AI部署网络连接企业与GPU提供商,确保工作负载获得所需计算能力[2] 技术优势 - 成本优势显著:相比OpenAI或Anthropic可节省15-30倍成本,相比其他开源提供商节省2-5倍[3] - 部署速度快:GPU设置仅需数小时,推理可在几分钟内完成[3] - 提供多种Nvidia GPU选择,包括H200、H100、A100和RTX4090,价格区间为每小时0.65-3.25美元[3] - 构建全球性Kubernetes编排系统,克服不同GPU云提供商的技术差异[5][6] - 实现跨多个提供商的集群管理,使全球GPU云成为工作节点[6] 市场表现 - 2024年1月开始封闭测试,需求持续增长[8] - 年度经常性收入(ARR)已超过七位数[8] - 客户包括SambaNova、Oumi、Rasa和Elicit等AI领域公司[8] 行业洞察 - 市场存在"奇怪悖论":GPU看似稀缺但实际有大量闲置容量,问题在于优化和利用率不足[9] - 下一代AI应用需求几乎无限,将取代传统互联网应用[9] - 当前市场Nvidia GPU占主导地位,但预计未来会发生变化[9] 团队背景 - 创始人Henry曾创立AI平台公司Mythic,融资1.65亿美元,开发过AI加速硬件[2] - 联合创始人Harris是自动驾驶公司Swift Navigation的创始人[2] - 计划扩充目前12人的团队,重点增加工程岗位[9]