AI芯片市场趋势 - 旺盛的AI智算需求驱动GPU路线之外的AI芯片获得更多市场关注,例如博通因云服务厂商寻求英伟达替代方案而订单量水涨船高、股价大涨 [1] - 以谷歌TPU和Groq的LPU为代表的非GPU芯片路线受到市场关注 [1] - 定制化ASIC芯片备受关注,博通近期获得百亿美元订单,谷歌持续演进自研TPU芯片 [3] ASIC芯片发展 - 立足于ASIC定制芯片的国内厂商正在快速发展 [2] - 产业界持续追求更高费效比的路径,可能向某个方向收敛 [2] - 随着专用芯片发展,其成本不再高昂,越来越多厂商愿意借力自研专用芯片架构推进个性化AI能力落地 [2] TPU/GPTPU技术优势 - 中昊芯英选择与谷歌类似的GPTPU路线 [4] - 自英伟达Tesla V100加入Tensor Core以来,其对Tensor Core的每次迭代都有新亮点,而对CUDA Core功能实现没有太大变化 [4] - 在大模型时代,每多N倍数据传输量,张量运算单元能完成N²的计算量,实现相对划算的计算效果 [4] - TPU类比3D打印机,能够把计算任务一次性打印成型,而GPU是多人共同运算,CPU是处理复杂题目的博士生但数量极少 [4] 集群互联挑战 - 大模型发展对底层AI算力集群提出更高要求,如何把“单点能效”放大到“集群能效”是国产XPU芯片的挑战 [5] - 未来数据传输是AI基础设施的瓶颈之一,Tensor Core优势在于传输N倍数据量完成N²计算量 [5] - 谷歌第三代TPU产品支持多达千片芯片规模的片间互联 [5] - 中昊芯英支持千卡集群内1024片芯片直接光模块高速片间互联,并探索OCS全光互联等新技术方案 [6] 互联协议竞争 - 英伟达通过InfiniBand高速互联协议构建护城河,该协议被认为更适合大规模数据中心集群部署 [6] - 因英伟达相对封闭,竞争对手更积极推进以太网协议,这是多数国产AI芯片厂商的选择方向 [6] - 头部AI芯片厂商积极构建以太网联盟,该技术路线物理介质和带宽能力大幅提升,已具竞争力 [6] - 特斯拉基于以太网推出TTPoE连接协议实现很低延迟,中昊芯英宣称其互联延迟表现比特斯拉更好 [6] 软件生态与模型架构 - 国产AI芯片平台需自主建设软件栈和工具链,以应对英伟达闭源CUDA生态 [6] - 未来国产AI芯片将通过持续工具链完善,实现不同平台间的兼容与流畅体验,类比安卓系统起步时国产手机的优化过程 [7] - 目前绝大多数大语言模型本质上仍脱胎于Transformer架构,整体结构未出现根本性变化 [7]
专访中昊芯英CTO郑瀚寻:国产AI芯片也将兼容不同平台