FP8

搜索文档
突发!英伟达停产H20芯片
猿大侠· 2025-08-24 12:11
来源 | 科技每日推送(ID:apptoday) 8月22日,The information消息, 英伟达已通知部分零部件供应商,暂停中国特供 AI芯片 H20的生产。 包括三星电子与安靠科技,前者为该芯片提供高带宽内存芯片,后者负责该芯片的先进封装。 对此,英伟达发言人表示: "我们不断管理我们的供应链以应对市场状况。" 还记得一个来月前,英伟达CEO黄仁勋来中国参加链博会,高兴地宣布恢复H20销售的画面。 这剧情反转,是不是有点太快了。 8月,H20正式获得对华出口许可, 但条件是向美国政府上缴15%的销售额。 不过在7月31日,网信中国公众号发文,英伟达算力芯片被曝出存在严重安全问题。 H20订单起飞 但很快曝出安全问题 H20是英伟达为遵守美国出口限制而推出,专为中国市场设计的AI芯片,占英伟达中国区收入的80%。 今年4月, 美国禁止英伟达向中国销售H20。直到7月中旬,黄仁勋才宣布 将恢复销售。 7月29日,路透社报道, 中国市场需求比预想中强劲,英伟达上周不得不改变仅依赖现有库存的策略,向台积电紧急订购了30万片H20。 央视新闻同样提到, 此前,美议员呼吁要求美出口的先进芯片必须配备"追踪定位 ...
Deepseek发布V3.1 为何火的却是官方留言?
环球网资讯· 2025-08-23 13:26
DeepSeek-V3.1技术升级 - 公司正式推出DeepSeek-V3.1 在混合推理架构、思考效率和Agent能力方面全面升级 [1] - 官方补充说明UE8M0 FP8技术针对下一代国产芯片设计 [1] 资本市场反应 - DeepSeek官方留言引发连锁反应 寒武纪和海光信息等企业股价短期内上涨 [3] - 市场普遍认为FP8技术优化将推动国产芯片在AI训练和推理场景下的性能提升并扩大市场份额 [3] FP8技术特性 - FP8是8位浮点数格式 能在几乎不损失模型精度情况下大幅提升计算速度并降低功耗 [3] - 该格式尤其适用于大规模神经网络训练和推理场景 [3] 国内芯片产业现状 - 目前国内仅极少数GPU厂商支持FP8 如摩尔线程旗舰产品MTT S5000是国内首批原生支持FP8并大规模量产的GPU [3] - 摩尔线程MUSA架构原生支持硬件FP8张量加速计算 相对传统FP16计算可实现两倍浮点算力提升 [3] UE8M0 FP8技术价值 - 该技术通过对FP8格式深度优化 为下一代国产芯片提供底层支持 [4] - 通过减少数据存储和传输耗损 显著提升芯片吞吐量和能效比 [4] - 进一步强化国产AI芯片在国内外市场的竞争力 [4] 行业技术趋势 - 英伟达和AMD等国际巨头纷纷布局FP8 该格式有望成为下一代AI训练和推理的通用标准 [5] - DeepSeek此时推出UE8M0 FP8技术意味着中国企业在标准制定阶段已深度参与 可能影响全球技术路线走向 [5] 软硬件协同发展 - 公司从AI算法向芯片技术延伸体现软件定义硬件趋势 [5] - 优秀软件栈和算法优化能力正成为提升硬件性能的关键因素 [5]
算力股、芯片股都疯了!DeepSeek一句话让国产芯片集体暴涨!
是说芯语· 2025-08-22 15:49
DeepSeek V3.1发布及UE8M0 FP8技术影响 - DeepSeek V3.1发布采用UE8M0 FP8参数精度 引发市场广泛关注[1][31] - 官方透露新架构及下一代国产芯片信息 信息量巨大但表述简短[1][32] 国产芯片股价表现 - 寒武纪股价收盘上涨20% 总市值跃居科创板头名[2][24] - 半导体ETF全天大涨10% 代码512480 SH收报1 311元 单日上涨0 110元[3] - 芯片产业链集体走强 科创50指数大涨3%创近三年半新高[26] - 多只半导体成分股显著上涨 包括海光信息+20% 中芯国际+14 19% 澜起科技+8 70% 兆易创新+10%[3][4] UE8M0 FP8技术解析 - UE8M0 FP8为MXFP8格式的缩放因子配置 由Open Compute Project在2023年定义[7][8] - UE8M0中U代表无符号 E8M0表示8bit全部分配给指数位 无尾数和符号位[13][14] - 该格式优势包括 处理器复原数据时只需移动指数位 无需浮点乘法或舍入逻辑 缩短时钟关键路径[16] - 动态范围覆盖2^−127至2^128 解决单尺度FP8无法兼顾大小值的问题 减少信息损失[17] - 块级缩放使32个FP8数据仅追加8bit缩放因子 相比FP32缩放节省75%流量[21] 国产芯片厂商适配进展 - 寒武纪MLU370 S4 思元590及690系列芯片均支持FP8计算 架构设计领先[24] - 摩尔线程MTT S5000 GPU 芯原VIP9000 NPU等2025H2新品支持原生FP8或Block FP8[20] - 华为昇腾910B/C暂不支持原生FP8 但官方路线图显示2025Q4将支持[25] - 海光深算三号DCU 沐曦曦云C600 中昊芯英刹那TPU均支持FP8精度计算[30] - 首批通过DeepSeek大模型适配测试的厂商包括中国电信 华为 寒武纪 昆仑芯 海光 沐瞳 中昊芯英 中科加禾[23] 行业生态与竞争影响 - UE8M0 FP8提升国产芯片性价比 同等硬件可运行更大模型 减少对英伟达 AMD等国外算力依赖[27][28] - DeepSeek通过精度格式改动主动贴合国产芯片性能点 推动软硬协同生态建设[29] - 技术优化方向与国产芯片带宽限制(HBM LPPDDR)形成互补 成为下一代架构重要优化路径[21] - 市场解读为国产AI进入软硬协同阶段 国产芯片厂商竞争力提升[27][29]
究竟会花落谁家?DeepSeek最新大模型瞄准了下一代国产AI芯片
机器之心· 2025-08-22 12:01
机器之心报道 Deepseek V3.1 的很多基准测试结果已经陆续在 SWE-bench 等榜单上出现。此外,新模型在 Aider 多语言编程基准测试中得分超越了 Anthropic 的 Claude 4 Opus,同时还有显著的成本优势。 | Benchmarks | DeepSeek-V3.1 | DeepSeek- | DeepSeek- | | --- | --- | --- | --- | | | | V3-0324 | R1-0528 | | SWE-bench Verified | 66.0 | 45.4 | 44.6 | | SWE-bench | 54.5 | 29.3 | 30.5 | | Multilingual | | | | | Terminal-Bench | 31.3 | 13.3 | 5.7 | 与 DeepSeek 自己此前的模型相比,V3.1 的性能提升显著,它解决问题需要更多步骤,但经过了思维链压缩训练,在任务表现持平的情况下,token 消耗 量可以减少 20-50%,因此有效成本与 GPT-5 mini 相当。 除了模型性能的提升之外, 值得关注的是,DeepSee ...