参与全球首个VLA+RL框架的开发!清华大学团队成员招募了~
具身智能之心·2026-01-21 12:00
项目概述 - RLinf是全球首个用于具身大模型训练的强化学习基础设施,其最大特色是专注于具身领域的视觉-语言-动作模型与强化学习任务 [1] - 项目未来将持续有其他功能上线 [1] 技术架构与支持 - 项目支持广泛的模拟器,包括ManiSkill、LIBERO、RoboTwin、RoboVerse、BEHAVIOR、MetaWorld、IsaacLab、CALVIN、RoboCasa、Franka-Sim等 [4] - 项目支持真实世界机器人平台,如Franka Arm,并计划扩展更多 [4] - 项目集成了多种模型,包括VLA、OpenVLA、OpenVLA-OFT、GROOT、VLM、Qwen2.5-VL、自定义模型、MLP策略、CNN策略等 [4] - 项目支持多种算法,包括GRPO、PPO、DAPO、Reinforce++、SAC、CrossQ、RLPD、SAC-Flow等强化学习算法,以及全参数微调、LoRA微调等监督微调方法 [4] 人才招募与职业发展 - 项目提供硕士、博士、博士后及研究助理的招募机会,名额来自清华大学电子工程系和清华大学深圳国际研究生院的教授 [5] - 项目可为优秀参与者提供推荐,前往海外、北京大学、北京航空航天大学、上海交通大学、中关村等高校攻读博士或硕士学位 [6] - 对于非学术界参与者,项目可将优秀人才推荐至各公司担任方向负责人、首席架构师等职位,并提供前沿的研发方向与有竞争力的薪酬 [6] - 此外,项目也提供与国家实验室等机构相关的机会 [6] 项目联系与获取 - 项目网站为 https://github.com/RLinf/RLinf [2] - 感兴趣者可联系项目负责人于超老师,需附上个人简历 [7]