Workflow
【行业前瞻】2025-2030年全球及中国多模态大模型行业发展分析
搜狐财经·2025-05-07 11:45

多模态大模型行业概述 - 多模态大模型能够处理、理解和生成多种类型数据(如文本、图像、音频、视频等),通过跨模态语义对齐实现不同模态数据的无缝连接和理解 [1] - 应用领域包括自然语言处理、图像识别、语音识别、智能驾驶、医疗影像诊断等 [1] - 行业主要上市公司包括阿里巴巴、百度、腾讯、科大讯飞、万兴科技、三六零、昆仑万维、云从科技、拓尔思等 [1] 多模态大模型产业链 - 产业链分为基础层、模型层和应用层 [1] - 基础层主要包括硬件和基础软件 [1] - 模型层包括CLIP、BLIP、BLIP-2、dreamLLM、LLaMA、LLaVA、flamingo、mini-GPT4等 [1] - 应用层涵盖生产制造、生活娱乐、公共服务等领域 [1] 多模态大模型产品成本 - 国内主流大模型训练成本在数千万至数亿美元级别,百度文心、阿里通义、腾讯混元等大厂模型投入超2亿美元 [3] - 创业公司如Kimi、DeepSeek训练成本在3000-6000万美元之间 [3] - 云托管成本受模型规模影响显著,大厂依托自有云平台降低成本,初创公司依赖多云弹性部署 [3] - 具体成本示例:盘古大模型训练成本≥1亿美元,文心大模型≥3亿美元,混元大模型≈2.5亿美元,通义大模型≥2亿美元 [5] 全球多模态大模型行业发展历程 - 早期探索期(1956年-2005年):人工智能学科诞生,神经网络模型开始发展 [6] - 快速成长期(2006年-2019年):深度学习概念被重新引入,Transformer等模型推动行业进步 [6] - 大模型兴起期(2020年-2022年):参数规模迅速扩大,2022年被视为大模型元年 [6] - 广泛应用期(2023年至今):大模型在各领域深度应用不断拓展 [6] 全球大模型算力需求 - 人工智能依赖"强算法、高算力、大数据"支持,模型大小和参数量直接影响智能涌现质量 [9] - GPT-3大模型训练参数量为1750亿,算力消耗为3640PF-days,需要至少1万片GPU支撑 [9] - 模型参数扩大十倍时,算力投入将超过十倍 [9]