Workflow
英伟达 GPU(A100
icon
搜索文档
魏少军:摒弃英伟达 GPU !
是说芯语· 2025-09-12 16:31
核心观点 - 亚洲AI发展过度依赖美国硬件技术 特别是英伟达GPU 这种依赖将削弱地区自主性并构成长期风险 必须突破美国技术范式 在算法和计算基础设施等基础领域另辟蹊径[1][3][8] 模仿陷阱 - 亚洲AI研发机构在训练大语言模型和多模态模型时几乎清一色采用英伟达GPU作为核心算力支撑 A100和H100系列产品凭借强大张量核心和高效CUDA生态成为亚洲AI实验室标配[3] - 当前亚洲AI发展模式过度效仿美国路径 即采用英伟达或AMD计算GPU训练大型语言模型 这种模仿会削弱地区自主性 若不改变可能产生致命影响[1] 上游空心化 - 英伟达GPU核心技术包括架构设计 制程工艺 软件生态均掌握在美国企业手中 H100采用台积电4nm工艺制造 但芯片设计核心IP和指令集架构由英伟达主导[4] - 配套CUDA工具链形成难以替代的技术壁垒 亚洲企业在AI算法研发和应用场景落地方面具备优势 但在算力基础设施核心环节始终处于被动跟随状态[4] 算力成本陷阱 - 大语言模型参数规模从百亿级向万亿级突破 对算力需求呈指数级增长 训练千亿参数LLM需要投入数千块英伟达A100 GPU[5] - 单台服务器成本超过百万元 整个训练周期硬件 电力 运维成本高达数亿元 英伟达凭借市场垄断地位不断提高产品定价 H100售价相比A100上涨超过50%[5] 供应链风险 - 亚洲在AI算力领域对英伟达依赖本质是将半导体产业链核心环节交由外部控制 2022年美国出台半导体出口管制措施 明确限制英伟达A100 H100等高端GPU对华出口[6] - 英伟达后续推出阉割版H20 L20 GPU 但性能大幅下降 无法满足高端AI训练需求[6] 数据安全风险 - AI训练与推理过程涉及大量敏感数据包括企业商业数据 个人信息数据和国家关键领域数据 英伟达GPU硬件架构和软件系统均由美国企业设计[7] - 硬件内部是否存在数据采集传输后门存在不确定性 依赖外部硬件进行敏感数据AI处理增加了数据泄露风险[7] 技术创新停滞风险 - 模仿美国模式限制区域自主权核心在于生态锁定对创新的抑制 英伟达凭借CUDA生态构建从硬件到软件完整生态体系[8] - 全球超过90% AI开发者使用CUDA工具链 大量AI框架如TensorFlow PyTorch优先适配英伟达GPU 生态锁定抑制了区域技术创新[8]