Workflow
人工智能行业专题研究:豆包大模型迎来重磅更新,AI应用繁荣推动算力基础设施建设
源达信息·2024-12-31 16:05

报告行业投资评级 - 看好 [13] 报告的核心观点 - 豆包大模型重磅更新有望带动AI应用市场繁荣,其视觉理解大模型和3D生产大模型推出及部分模型性能升级,使用成本降低85%,推动AI应用商业繁荣 [13] - 大模型大规模商业化应用成熟拉动算力基础设施建设,全球人工智能资本开支预计2024 - 2028年复合增速达29%,生成式人工智能资本开支GAGR有望达59% [13] - 算力基础设施建设趋势下核心供应链环节将充分受益,包括服务器、液冷设备、芯片及光模块等 [13] - 建议关注服务器、液冷设备、芯片和光模块等领域投资机会,如浪潮信息、中科曙光等公司 [13][58] 根据相关目录分别进行总结 豆包大模型产品力大幅增强,推动AI应用商业繁荣 - 2024年12月火山引擎大会推出豆包视觉理解和3D生产大模型,升级通用、音乐和文生图模型,丰富产品矩阵 [90] - 豆包通用模型Pro综合能力提升32%,与GPT - 4o持平,使用成本是其八分之一,多项能力指标对齐GPT - 4o [69] - 豆包文生图模型在通用性等方面突破,新增功能并加强指令遵循能力;音乐模型可生成复杂音乐作品并支持局部修改 [71] - 豆包大模型在评测中排名前列,通用模型Pro在大语言模型总榜主观评测得分最高,视觉理解和文生图模型在多模态模型主观测评排第二 [72] - 豆包视觉理解模型使用成本比行业低85%,豆包APP 11月全球AI产品榜排第二,推动AI应用商业化 [76] 人工智能产业加快增长,应用及算力是两大支柱 - AI大模型性能提升需千亿级参数训练,对算力需求大,推动AI基础设施建设,如GPT - 3模型训练运算量大、耗费高 [78] - 预计2024中国智能算力规模同比增长50%,2025年同比增长44% [81] - 2024年全球人工智能资本开支预计达2350亿美元,2028年增长至6320亿美元,复合增速29%,生成式人工智能资本开支GAGR有望达59% [84] - 人工智能支出前三行业是软件和信息服务、银行及零售业,2024年投资占全球38%,软件开支未来占比最高 [85] 算力产业链:服务器是算力基础设施 大模型打开算力需求,服务器建设规模快速增长 - 大模型发展推动算力中心建设,以Nvidia A100服务器为例,训练1750亿参数大模型约需2917台 [10] - 2023 - 2024年全球普通和高端AI服务器出货量高速增长,2024年分别为72.5和54.3万台,同比增长54.2%和172.0% [13][19] - 华为布局算力基础设施,鲲鹏系列通用算力、昇腾系列智能算力用国产芯片,华为系服务器厂商有高新发展等 [21] 液冷技术低能耗高散热,受益算力扩建浪潮 - 液冷技术有高效散热、节能降耗、提高设备可靠性、节省空间、提高功率密度等优点,适用于高能耗数据中心 [22][25] - 主流液冷技术在冷却效果指标上优于传统风冷技术,能满足不同密度数据中心散热需求 [30][34] - 预计2025年中国液冷数据中心市场规模达377.6亿元,同比增长56%,2027年有望达1020亿元 [35] 算力产业链:芯片是智能核心,国产化短板明显 - Nvidia H200芯片存储性能较H100大幅提升,算力层面无显著改变 [41] - 国产AI芯片与Nvidia H100性能有差距,但下一代产品研发推进顺利,如寒武纪思元590等 [42] - 美国对AI芯片出口管制,国内AI产业对国产芯片需求迫切,国产芯片有望迎来机遇 [43] 算力产业链:光模块快速放量,产品结构向高端升级 - AI大模型东西向流量增加,叶脊网络架构适用于该流量传输,成为主流架构,大幅增加光模块数量需求 [46][47] - 以Nvidia DGX H100架构为例,4 - SU单元架构需1016个GPU、1536个800G光模块、1024个400G光模块 [49] - 预计2025年全球光模块市场规模达170亿美元,2027年突破200亿美元,国产厂商在全球排名中占优 [50][55] 投资建议 建议关注 - 建议关注服务器(浪潮信息、中科曙光)、液冷设备(英维克)、芯片(海光信息)、光模块(中际旭创、天孚通信、光迅科技)领域投资机会 [58] 行业重点公司一致盈利预测 - 报告给出浪潮信息、中科曙光等公司2023 - 2025年归母净利润、PE、总市值等盈利预测数据 [59]