AI个性化定制
搜索文档
2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了
量子位· 2025-11-05 15:56
仅需 2-4 张 消费级显卡(4090),就能在本地对 DeepSeek 671B 乃至 Kimi K2 1TB 这样的超大模型进行微调了。 你没有看错。 金磊 发自 凹非寺 量子位 | 公众号 QbitAI 微调超大参数模型 ,现在的"打开方式"已经大变样了: 这要放以前啊,各路"炼丹师"是想都不敢这么想的。因为按照传统的方法,类似Kimi K2 1TB参数的模型,用LoRA微调方案理论上需要高 达2000GB的显存,而即便是参数量稍小的 DeepSeek-671B的模型微调也需要1400G的显存。 什么概念? 一张H100(80GB)得十几张起步,说是吞矿也是不足为过了。 而现在微调千亿/万亿参数模型的成本能打如此骨折,背后的关键源自 两个国产明星项目 的联动。 首先就是 KTransformers ,是由趋境科技和清华KVCache.AI共同开源的项目,GitHub已经斩获15.3K星 。 KTransformer此前在大模型推理领域就已声名鹊起,凭借GPU+CPU的异构推理的创新路径成为主流推理框架之一,通过KTransformers 利用单张4090可以推理Kimi K2 1TB级别大模型。 而这一 ...