AI训练与推理
搜索文档
佰维存储:获服务器厂商、头部互联网厂商等多领域头部厂商核心供应商资质
巨潮资讯· 2025-11-12 01:07
公司业务进展 - 公司企业级业务处于高速发展阶段,已获得服务器厂商、头部互联网厂商以及国内头部OEM厂商的核心供应商资质,并实现预量产出货 [1] - 核心供应商资质的获取意味着完成多轮验证并进入客户体系,为后续批量订单铺路 [3] - 在预量产阶段通过工艺爬坡与一致性管控,逐步提升良率与交付稳定性 [3] 客户与市场策略 - 服务器与互联网厂商具备规模化部署与快速迭代的特点,OEM厂商负责整机集成与渠道覆盖,三方协同可加速企业级新品的放量节奏 [3] - 公司表示将继续完善产品矩阵并加深与核心客户的协同开发,围绕性能、可靠性与能效推进代际升级,同时优化供应链以提升规模化供货能力 [3] 行业趋势与需求 - AI训练与推理带动数据中心扩容,企业级存储需求结构向更高带宽、更低时延与更高耐久度转变 [3] - 存储供应商需在控制器、固件算法与质量体系上形成差异化能力,以满足数据中心对SLA与全生命周期成本的要求 [3] 商业化前景 - 核心资质与预量产的组合意味着商业化临近关键阶段 [3] - 后续需关注批量导入节奏,若公司顺利实现大规模量产,客户结构与产品结构有望进一步优化 [3]
DeepSeek“点燃”国产芯片 FP8能否引领行业新标准?
智通财经网· 2025-08-24 15:48
公司动态 - DeepSeek宣布新一代模型DeepSeek-V3.1采用UE8M0 FP8 Scale参数精度 该精度标准针对下一代国产芯片设计 [1] - 消息引发资本市场强烈反应 寒武纪等芯片类上市企业股价集体拉升 [1] - 在2025算力大会上 FP8精度标准被讨论 但业内人士情绪较资本市场更为审慎 [1] 技术解析 - FP8将数据宽度压缩至8位 相比FP32的4字节传输量 FP8仅需1字节 算力效率翻倍 同时降低网络带宽通信量和存储要求 [2] - 在相同功耗下 AI芯片可训练更大模型或缩短训练时间 [2] - 低精度训练推理易因数值范围太小导致计算出错 不同计算对精度要求不同 矩阵乘法对精度不敏感可用FP8 累加或某些函数需较高精度 [3] - 业内通常采用混合精度训练 根据计算类型动态选择不同精度 兼顾效率与准确 [3] 行业影响 - DeepSeek-V3.1使用UE8M0 FP8 Scale参数精度 被视为国产AI芯片即将迈入新阶段的信号 [4] - FP8代表算力优化正确方向 大模型训练推理不只是堆砌硬件 但并非灵丹妙药 需关注实际落地效果 [4] - 大模型对精度容忍度越来越高 从FP32到FP16再到FP8是行业逐步验证路径 DeepSeek验证FP8在大规模模型可行性 [4] - 精度标准变化需上下游厂商联动优化 国产算力生态需同步升级 包括芯片、框架、算力平台到应用层闭环适配 [4] - 摩尔线程已提前布局FP8研究 作为技术储备并在生态调整中占据主动 [4] 发展挑战 - 大模型训练推理核心瓶颈包括能耗、稳定性和集群利用 需解决效率与容错问题 确保集群可靠性 [5] - 国内万卡规模集群已有部署 但需向大智算集群演进 简单堆卡不能完全满足需求 提高单卡效率与集群调度优化同样关键 [5]