英伟达自毁CUDA门槛,15行Python写GPU内核,性能匹敌200行C++
GPU编程变天了。 英伟达发布最新版CUDA 13.1,官方直接定性:这是自2006年诞生以来最大的进步。 核心变化是推出全新的CUDA Tile编程模型,让开发者可以用Python写GPU内核,15行代码就能达到200行CUDA C++代码的性能。 消息一出,芯片界传奇人物Jim Keller立即发问: 英伟达是不是亲手终结了CUDA的"护城河"?如果英伟达也转向Tile模型,AI内核将更容易移植到其他硬件上。 Jim Keller参与设计过AMD Zen架构、苹果A系列芯片、特斯拉自动驾驶芯片的"硅仙人",他的判断在行业里相当有分量。 那么问题来了:CUDA这次到底改了什么?为什么会被认为是"自毁长城"? GPU编程范式从"线程"到"瓦片" 要理解这次更新的意义,得先回顾一下传统CUDA编程有多折磨人。 过去20年,CUDA一直采用SIMT(单指令多线程)模型,开发者写代码时,需要手动管理线程索引、线程块、共享内存布局、线程同步,每一个细节都 要自己操心。 想要充分利用GPU性能,特别是用上Tensor Core这类专用模块,更是需要深厚的经验积累。 CUDA Tile彻底改变了这套玩法: 开发者不再需要 ...