Workflow
超低精度训练
icon
搜索文档
DeepSeek V3到V3.1,走向国产算力自由
虎嗅APP· 2025-08-24 17:02
以下文章来源于未尽研究 ,作者未尽研究 未尽研究 . AI,新能源,合成生物,地缘X 本文来自微信公众号: 未尽研究 (ID:Weijin_Research) ,作者:未尽研究,题图来自:AI生成 从V3到V3.1,DeepSeek正在探索出一条"算力自由"之路。 从魔改PTX到使用UE8M0 FP8 Scale的参数精度,DeepSeek先榨取英伟达GPU算力,再适配国产芯 片,可能会在软硬件协同方面带来新的突破, 进一步提高训练效率,最多可以减少75%的内存使用 ,从而在实际应用中减少对进口先进GPU芯片的依赖。 DeepSeek正在与下一代国产GPU芯片厂商一起,向算力自主又迈进一步。正是这样一种令人激动的 前景,激活了科技色彩愈发浓厚的中国资本市场。 DeepSeek发布了V3.1,而不是广受期待的V4或者R2,连R1也消失了。 DeepSeek变成了一个混合推 理架构,即一个模型同时支持思考模式和非思考模式。 这是一个趋势,在V3.1发布一周之前,GPT- 5发布了,这是一个"统一的系统",包括一个对话模型,一个思考模型,和一个实时路由,用来决定 如何结合对话与思考。 这次升级提高了DeepSeek ...
DeepSeek V3到V3.1,走向国产算力自由
虎嗅· 2025-08-24 08:33
技术升级与架构创新 - DeepSeek-V3.1采用混合推理架构,同时支持思考模式和非思考模式,提升模型灵活性和效率[3] - 模型通过后训练优化显著增强Agent能力,在工具使用和智能体任务中表现提升[6] - 基础模型在V3基础上新增840 B token的外扩训练,上下文长度和双模式均扩展至128k[7] - 引入UE8M0 FP8 Scale参数精度,最多减少75%内存使用,大幅提升训练和推理效率[1][13] - UE8M0 FP8格式兼容MXFP8标准,可直接在支持该标准的硬件上运行,无需额外转换[14][15] 算力优化与硬件适配 - 公司通过魔改英伟达PTX指令集提升GPU算力利用率,最大化挖掘现有硬件潜力[33] - UE8M0 FP8格式采用对数数值系统特性,覆盖极宽动态范围,适合低算力环境工程优化[14][30] - 超低精度技术降低对进口GPU依赖,适配寒武纪、沐曦、燧原、昇腾等国产芯片[1][16][34] - 软件定义策略使模型与多种芯片适配,推动国产芯片实现前沿大模型训练推理[15][35] 企业服务与生态建设 - API Beta接口支持strict模式Function Calling,提升工程可靠性和企业易用性[8] - 新增Anthropic API格式支持,便于Claude用户迁移,直接渗透其企业市场份额[9] - 升级后模型在保持性能同时降低价格,凸显性价比创新优势[7] - 技术路线旨在构建"算力无关"模型生态,减少对CUDA生态依赖[35][42] 行业竞争与市场影响 - 超低精度技术可能削弱英伟达H20/B30芯片在中国市场竞争力[37][39] - 国产AI软件栈逐步成熟,中长期将降低对英伟达芯片需求[38] - 国际厂商仍优先选用英伟达G200追求极致性能,但中国厂商形成去英伟达化路径[40][42] - 技术突破激活资本市场,推动算力自主进程[2][10]