Workflow
AI算力系列19-DeepSeek-DAU高增-持续推动推理侧算力需求
SKLTYSeek .(SKLTY) -·2025-02-11 17:29

纪要涉及的行业和公司 - 行业:AI、云计算、半导体、移动互联网、IDC、网络设备、国产GPU及配套、大模型应用落地 [1][2][8][17] - 公司:DeepSeek、豆包、Google、阿里巴巴、腾讯、百度、电信、移动、联通、润泽科技、光环新网、世纪互联、万国数据、数据港、杭钢股份、海南瑞泽、华为、华三、锐捷、中兴、菲菱科思、华丰科技、晨光、华星、英维克、麦格米特、美格智能、广和通、涂鸦智能、地平线、易通科技、华昌达、比亚迪 [1][4][17][18] 纪要提到的核心观点和论据 - 核心观点1:大模型推动AI应用发展,形成良性循环 - 论据:2024 - 2025年大模型内卷竞争快速进化,如Google推出DreamBooth大模型,欧洲也推出有竞争力大模型,大模型推动应用发展,应用促进基础设施需求增长 [1][2] - 核心观点2:DeepSeek在国内市场广泛部署且有优势 - 论据:国内企业采用私有云或混合云部署,解决算力不足、提供高质量服务、满足数据安全要求,开源版本降低使用成本 [1][3] - 核心观点3:国内互联网公司和运营商积极推广DeepSeek并受益 - 论据:互联网公司和运营商通过高性能计算集群和本地化云资源提供不同版本DeepSeek,提高固定资产利用率和算力投资回报率,结合信息化解决方案提供增值服务;运营商提高集群利用率、满足政企需求、提升盈利和股价,政企私有化部署运营商是核心受益者 [1][4][5] - 核心观点4:DeepSeek影响算力公司股价,未来价值将回升 - 论据:美股市场算力公司股价先跌后反弹创新高,A股市场大幅下跌未恢复;摩尔定律有效,降低算力成本可提升利用率,预计公司价值逐步认可回升 [1][6][7] - 核心观点5:AI算力需求显著增长,从训练侧向推理侧转移 - 论据:DeepSeek发布后7天达1亿用户,日活超3000万,带动推理侧算力需求上升,算力和关注度向推理侧终端和应用环节转移 [1][9] - 核心观点6:DeepSeek和豆包大模型在架构和算力消耗有差异 - 论据:豆包基于Transformer架构,每日处理约6万亿token,每秒104×10^18次FLOPS,需70万张H20卡;DeepSeek采用MOE架构,每日token使用量预估10 - 20万亿次,每秒处理3.47×10^8个token,总体需3.74×10^20次FLOPS,训练层级GPU卡以FP8为主含部分FP16 [10] - 核心观点7:未来AI发展围绕提升性能与优化资源利用 - 论据:通过改进算法与硬件技术降低单位计算成本,推动公有云与私有部署结合,实现深度学习框架定制化,大规模开源项目加速行业发展 [1][14] - 核心观点8:未来几年AI与云计算领域前景广阔 - 论据:降本增效推动行业爆发,降低带宽、流量、IDC等成本激发用户需求形成庞大产业规模 [8] - 核心观点9:多个行业和公司将在未来AI发展中受益 - 论据:IDC与云厂商、网络设备、国产GPU与相关配套、大模型应用落地等方向的公司将受益,如500多万张0B等效GPU带动400G交换机超1.5万台增量订单,市场100 - 150亿元增量 [17] 其他重要但可能被忽略的内容 - 推理侧AI算力消耗量化步骤:确定每秒处理token数量、评估每个token所需浮点运算次数、计算总需求FLOPS、确定所需GPU卡数量 [11] - H20加速卡在推理侧应用及算力需求影响:单卡算力提升至296 TOPS,整体约需120万张A20用于推理,是豆包的2 - 3倍,H20需求量增长40% - 50%,1 - 2年后日均调用量可能超150万亿次,约需500万张90B等效GPU推理卡 [15] - 未来几年算力基础设施建设需求及能耗预期:916B单卡功耗310 - 350瓦,整台服务器功耗3.5 - 4千瓦,总体配套功耗4 - 5GW,三年内基础设施支撑需求8 - 10GW,2024年新增约39万台,2025年起国内云厂商加大建设力度,1 - 2年内需求超过去3 - 5年总和 [16] - DeepSeek技术推动AI渗透率提升:易用性和开源特性使大量用户主动介入,推动企业私有化部署,如比亚迪接入升腾架构,推动汽车及新兴产业发展 [18]