比LoRA更快更强,全新框架LoFA上线,秒级适配大模型
具身智能之心·2025-12-19 08:05

编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区: 具身智能之心知识星球(戳我) ,这里包含所有你想要的! 本文第一作者郝一鸣,香港中文大学(深圳)GAP-Lab 在读博士生。本文共同第一作者为许牧天,于香港中文大学(深圳)取得博士学位。导师韩晓光教授,为 本文通讯作者。 在 个性化 视觉生成的实际应用中,通用视觉基础模型的表现往往 难以满足精准需求 。为实现高度定制化的生成效果,通常需对大模型进行针对性的自适应微 调,但当前以 LoRA 为代表的主流方法,仍受限于定制化数据收集与冗长的优化流程,耗时耗力,难以在真实场景中广泛应用。 为此,港中大(深圳)GAP-Lab 提出全新框架 LoFA ,从上重塑个性化视觉生成的技术路径。该框架能够 在数秒内根据用户指令前馈式直出对应的 LoRA 参数 , 使大模型快速适配到个性化任务中 —— 无需漫长优化, 效果却媲美甚至超越传统 LoRA ,真正推动大模型适配进入 "即时获取" 的新时代。 论文名称:LoFA: Learning to Predict Pe ...