Workflow
具身智能之心
icon
搜索文档
准备回去卷了......
具身智能之心· 2025-10-07 18:00
行业现状与竞争格局 - 国内从事具身智能本体及相关研究的机器人公司、互联网公司及二级研究院已接近200家,行业参与者众多 [1] - 行业内业务相似度、产品相似度及叙事逻辑均过高,表明行业内部竞争加剧,内卷即将到来 [1] - 部分公司致力于将机器人本体与应用场景结合以验证商业化能力,而另一部分公司则专注于强化本体研发,将场景验证交由开发者,以期在充分验证后集成算法并落地,被视为一种更聪明的长期策略 [1] - 从自动驾驶和大模型的发展周期来看,最终能留存并成为主力的公司是那些能够实现技术落地且技术栈丰富的实体,抱着短期“捞一波”心态的参与者难以持久,行业洗牌是必然趋势 [1] 社区定位与核心价值 - “具身智能之心知识星球”定位为国内首个具身全栈社区,旨在打造一个超大的具身与机器人技术交流平台 [2][11] - 社区致力于满足从初学者到进阶者的需求,解决学习、求职、升学中的实际问题,提供职位内推、辅导及信息建议 [2] - 社区已形成涵盖产业、学术、求职、问答交流等多个领域的闭环生态 [4] - 社区汇聚了来自斯坦福大学、加州大学、清华大学、上海交大、ETH等国内外知名高校实验室,以及智元机器人、有鹿机器人、优必选、小米、逐际动力等头部具身机器人公司的成员 [12] - 社区与近200家具身公司与机构建立联系,拥有近2000名成员,共同交流产业、学术与工程落地 [76] 社区内容与资源体系 - 社区内部梳理了超过30条技术路线,涵盖从Benchmark、综述到学习入门路线,旨在缩短成员检索时间 [4] - 汇总了超过40个开源项目、近60个具身智能相关数据集以及行业主流仿真平台 [12] - 汇总了机器人导航、概率机器人、动力学与运动学等方向的PDF书籍供基础学习 [25] - 汇总了机器人行业知名的零部件制造厂商信息,涉及芯片、激光雷达、相机、IMU、底盘等 [27] - 汇总了国内外具身智能相关的高校实验室与机器人公司,覆盖教育、宠物、工业、救援、物流、交互、医疗等多个方向 [16][17][20] - 汇总了大模型、人形机器人等行业的研报,以便及时了解行业发展与工业落地情况 [22] - 针对机器人仿真、抓取、控制、感知等多个领域汇总了开源项目,助力快速上手 [29] - 汇总了国内外知名ToF厂家、相关产品与技术资料 [31] - 针对数据采集,汇总了遥操作、动作捕捉、AR等方案以及多领域的开源数据集 [32][33][35] - 汇总了通用及真实场景的机器人仿真平台 [37] 技术专题覆盖范围 - **数据采集与生成**:涵盖遥操作算法与硬件、数据生成器与评测基准集 [5] - **灵巧手**:涵盖从硬件结构设计、触觉传感器、自由度到视觉语言动作模型构建等多个维度 [5] - **视觉语言动作模型**:涵盖VLA模型框架、泛化能力提升、安全建模、性能优化及分层模型等前沿进展 [5] - **视觉语言导航**:涵盖新的记忆表征方法及高效的3D视觉定位技术 [5] - **多传感器融合感知**:涵盖视-触/力觉融合的模仿学习框架 [5] - **分层感知与操作**:涵盖基于VLM分层架构的通用灵巧操作方案 [5] - **机器人操作系统与本体**:涵盖大小脑协同、异构多机器人操作系统、错误检测新范式等 [5] - **协同感知**:涵盖协同具身智能基准数据集 [5] - **机器人模型**:涵盖人形机器人运动智能、面向具身的强化微调框架及全球最大的双臂机器人扩散大模型 [5] - **Sim2Real与泛化**:涵盖具身视频基座模型、空间泛化规律及“真实-仿真-真实”统一框架 [5] - **具身世界模型与空间智能**:涵盖跨实体世界模型、4D世界模型、可规模化空间智能及世界增强规划方法 [5] - **触觉感知**:涵盖视触觉仿真平台及视触语言动作大模型初探 [5] - **大模型与规划推理**:涵盖基于任务学习、选择和规划行为的框架 [5] - **大模型推理加速与微调**:涵盖VLA模型的推测解码框架及从动作分布重塑的微调框架 [5] - **强化学习与VLA+RL**:汇总了基于LLM的强化学习、可解释强化学习、深度强化学习主流方案及VLA+RL的最新工作 [39][41][59] - **Diffusion Policy**:汇总了扩散模型设计、任务应用及生成相关内容 [61] - **机器人导航与规划**:关注自动驾驶与机器人应用 [48][63] - **大模型部署**:汇总了部署框架与轻量化方法 [65] - **机械臂抓取**:汇总了相关技术内容 [67] - **足式与移动机器人**:汇总了双足、四足机器人以及四足/轮式+机械臂系统的开源项目、仿真、源码与硬件方案 [69][71] 具体学习路线规划 - 社区提供了包括但不限于以下方向的详细学习路线:具身智能感知、具身智能交互、强化学习全栈、VLN、VA/VLA、多模态大模型理解与生成、Diffusion Policy、多传感器融合标定、机械臂抓取位姿估计与策略学习、大模型与机器人、双足与四足机器人、具身智能与大模型部署、触觉感知、机器人导航、sim2real、具身世界模型、机器人规划控制、数据采集、VLA+RL、real2sim2real等 [12][13][42][44][45][47][50][51][53][55][56][57][66]
最新SOTA!JanusVLN:双重隐式记忆解耦语义与空间,显著降低了计算与推理开销
具身智能之心· 2025-10-07 11:03
文章核心观点 - JanusVLN是一个创新的视觉-语言导航框架,其核心是双重隐式记忆范式,通过解耦语义与空间几何信息来解决现有方法的瓶颈[2] - 该框架仅需单目RGB视频流输入,无需昂贵传感器,即可实现强大的三维空间推理能力,并在权威基准测试中取得领先的性能[2][8] - 该方法标志着视觉-语言导航研究从“2D语义主导”迈向“3D空间与语义协同”的新阶段,为下一代具身智能体的开发指明了方向[19] 当前视觉-语言导航领域的技术瓶颈 - 现有方法依赖的显式记忆机制导致空间信息失真与丢失,难以精确编码连续的空间关系[3][5] - 存储历史图像帧的方法造成计算与推理效率低下,计算量随导航步数线性增长[5] - 无论是文本还是图像形式的显式记忆,其规模都会随导航轨迹延长而持续增长,引发“记忆爆炸”问题[5] JanusVLN的核心技术创新 - 提出双重隐式记忆,将记忆系统解耦为负责理解“是什么”的语义记忆和感知“在哪里”的空间几何记忆,均以神经网络键值缓存作为紧凑载体[7][8] - 集成预训练的3D视觉几何基础模型作为空间几何编码器,仅凭普通RGB视频流即可推断场景三维结构[8] - 采用混合增量更新策略,通过维护初始窗口和滑动窗口实现恒定大小的记忆,避免重复计算,大幅提升推理效率[8][11] 框架构成与工作原理 - 采用双编码器架构,2D视觉语义编码器提取高级语义特征,3D空间几何编码器提取蕴含三维结构的几何特征[11] - 将语义和空间几何编码器的注意力键值对缓存作为隐式记忆的载体,形成紧凑高效的双重记忆[11] - 缓存更新策略结合滑动窗口与初始窗口,滑动窗口确保对近期环境的敏锐感知,初始窗口作为“注意力接收器”提供全局上下文[11] 实验性能与结果 - 在VLN-CE R2R Val-Unseen数据集上,JanusVLN取得了导航误差4.78,成功率65.2,成功路径加权指标56.8的优异性能[13] - 在RxR Val-Unseen数据集上,JanusVLN的成功率达到56.2,成功路径加权指标47.5,标准化动态时间规整指标62.1[14] - 与依赖全景视图、深度图等多种昂贵输入的先进方法相比,JanusVLN仅凭单目RGB输入就在成功率指标上实现10.5-35.5个点的巨大提升[21] - 相较于同样使用RGB输入但采用显式记忆的先进方法,JanusVLN在成功率指标上取得3.6-10.8个点的提升,且使用更少的辅助训练数据[21]
具身研究的第一套机械臂,老师给我推荐了这款,好用性价比高!
具身智能之心· 2025-10-07 11:03
产品定位与核心价值 - 产品是面向具身智能科研领域打造的轻量级高性价比机械臂,旨在解决该领域硬件价格过高或性能不足的痛点 [1][2] - 产品定位为低成本解决方案,可完成具身领域论文验证和科研场景开发,满足大多数从业人员和科研工作者的需求 [2] - 专为教育、科研与轻工业场景设计,融合高精度运动控制、低功耗设计与开放软硬件架构 [4] 核心性能参数 - 机械臂本体重量为4.2千克,额定负载为3千克,具备6个自由度,工作半径为612.5毫米 [7][17] - 重复定位精度达到±0.1毫米,供电电压为24V,控制器为PC,材质为铝合金 [7][17] - 关节运动范围覆盖J1关节-165°至165°,J2关节-180°至0°,J3关节-0°至180°,J4关节-95°至86°,J5关节-90°至90°,J6关节-150°至150° [17] - 关节运动最大速度分别为J1 180°/秒,J2 180°/秒,J3 180°/秒,J4 220°/秒,J5 220°/秒,J6 220°/秒 [17] 技术优势与开发生态 - 提供从数据采集、模型训练到推理部署的全流程工具链和代码,目前开放ACT算法示例,支持视觉、力控等多模态数据融合 [15][30] - 兼容TensorFlow、PyTorch等主流框架,提供URDF模型,支持Gazebo和主流仿真环境与真机实时联动,实现仿真到真机的无缝联调 [15] - 提供C++、Python开发接口,同时支持ROS1和ROS2开发,后期将陆续升级更新VLA、VA相关源码 [16][17] - 提供完整的开源软件开发工具包,包含驱动程序、API接口、示例代码与文档 [24] 产品配套与服务支持 - 产品交付周期为1-2周,售后响应及时,非人为损坏质保半年,质保期后按市场价支付售后费用 [42][43] - 提供快速响应的售后和生态服务,承诺24小时内响应,支持批量采购并享有更多优惠力度 [17] - 公司支持基于本产品的项目开发、教学培训等服务 [17]
“盲眼”机器人在完全看不见的情况下30秒跑酷首秀惊艳!
具身智能之心· 2025-10-07 11:03
文章核心观点 - 亚马逊机器人团队FAR发布首个名为OmniRetarget的人形机器人研究成果,该技术能在完全无视觉感知的情况下完成复杂任务[2][9] - OmniRetarget是一个开源数据生成引擎,通过交互网格方法将人类演示转化为高质量机器人运动参考,实现从仿真到硬件的零样本迁移[12][13] - 该技术在运动学质量和下游策略性能上全面领先现有基线方法,成功率领先10%以上[16][42] 技术原理与方法 - 核心技术是基于交互网格的动作重定向方法,通过建模机器人、物体和地形之间的空间和接触关系来保留必要交互[15] - 交互网格被定义为一个体积结构,通过德劳内四面体化构建,并最小化拉普拉斯形变能量来保持空间关系[19][21][22] - 采用顺序二次规划风格的迭代方法求解约束非凸优化问题,保证时间连续性和平滑性[23][24] - 通过参数化改变物体配置、形状或地形特征,将单个人类演示转化为丰富多样的数据集[28][32] 性能表现与实验结果 - 在机器人-物体交互任务中,OmniRetarget的下游强化学习策略成功率达到82.20% ± 9.74%,显著高于基线方法[41] - 在机器人-地形交互任务中,成功率进一步提升至94.73% ± 22.33%[41] - 在完整增强数据集上训练的成功率为79.1%,与仅使用标称动作的82.2%相近,表明增强方法能扩大动作覆盖范围而不显著降低性能[39] - 在运动学质量指标上,OmniRetarget在穿透、脚部打滑和接触保留方面整体优于所有基线方法[41] 团队背景与发展前景 - 研发团队Amazon FAR成立仅七个多月,由华人学者领衔,负责人Rocky Duan来自著名机器人技术公司Covariant[43][48] - 团队核心成员包括UC Berkeley的Pieter Abbeel等机器人领域知名学者[44][45] - 这是亚马逊在人形机器人(足式)领域的首次尝试,展示了公司在机器人技术方面的强大研发能力[49][50]
具身智能之心招募合作伙伴了!课程开发/培训/论文辅导等
具身智能之心· 2025-10-06 10:35
文章核心观点 - 公司致力于构建一个为具身智能行业创造持续价值的平台 并寻求在课程研发 论文辅导 咨询服务 企业培训 学科共建 硬件研发等多个方向展开合作 以推动行业发展 [1] - 公司邀请具备领域工程经验或博士及以上学历的专业人士加入合作 提供行业有竞争力的报酬和行业资源 [7][8] 合作内容 - 课程开发与论文辅导 旨在搭建使初学者受益的课程 覆盖C端用户 企业培训和高校学科建设 [2][3] - 硬件研发 目标是构建好用且性价比高的具身智能科研平台 使其对开发者和初学者都易于使用 [4][5] - 咨询和培训服务 包括承接B端和C端在具身数据 本体 算法和部署等方面的咨询 以助力产业升级和人才发展 [6][7]
提供最专业的平台和运营团队!我们正在招募运营的同学~
具身智能之心· 2025-10-06 10:35
公司业务与团队发展 - 公司业务从具身智能领域起步,已发展为拥有技术深度和广度的平台,业务线日益增多 [1] - 团队在2年多时间内孵化了具身智能之心、自动驾驶之心、3D视觉之心、大模型之心Tech四个IP [1] - 公司内容矩阵在全网拥有近36万用户,并通过公众号、视频号、知识星球、哔哩哔哩、知乎、小鹅通等多个平台持续运营 [1] 招聘岗位与职责 - 招聘全职及兼职的自媒体运营和销售岗位各一名 [2] - 自媒体运营岗位需负责对接老师学员、管理课程进度、多平台运营、策划商业化项目、进行行业选题与原创内容撰写以及推文管理和数据复盘 [4] - 销售岗位需参与制作产品宣传内容、对接硬件厂家与客户、负责在线教育产品的推广与转化 [5][6] 岗位要求 - 自媒体运营岗位要求候选人具备强大执行力、本科及以上学历且计算机/AI类专业优先、熟悉多平台运营、并拥有一定的文字功底 [4] - 销售岗位要求候选人具备强大执行力与抗压能力、本科及以上学历且计算机/AI类专业优先、拥有自媒体销售经验并能接受一定频次的出差 [12] 工作地点与发展机会 - 工作地点位于杭州或上海 [7] - 员工将有机会接触国内顶级运营团队,学习运营技巧与销售策略,获得快速成长 [7] - 员工将接触到自动驾驶、具身智能、3D视觉、大模型等最新AI领域内容,同时收获技术思维 [8] - 岗位需要同时对接工业界和学术界,有助于了解整个产业发展,拓宽视野与格局 [8] - 公司提供读研、读博等个人提升机会 [9]
强化学习在机械臂、四足、人形的应用有哪些?
具身智能之心· 2025-10-06 00:03
强化学习在具身智能机器人领域的应用 - 强化学习是具身智能机器人(包括人形和四足机器人)实现步态控制等复杂任务的核心技术,宇树、智元等公司的人形机器人通过强化学习完成爬楼梯、爬山、跑步、跳舞、翻跟头等高难度动作[3] - 强化学习方案使机器人产品能够适应救援、测量、危险环境等场景[3] - 机械臂的视觉语言动作模型结合强化学习方案在学术领域越来越受欢迎,该方案使机器人执行任务更高效、丝滑与顺畅[4][9] 强化学习论文辅导课程核心内容 - 课程周期为14周在线集中辅导加8周维护答疑,目标帮助学员产出可向RAL、ICRA、IROS、CoRL等顶级会议或期刊投稿的论文初稿[10][18] - 课程采用6人小班制,每周1次直播授课并配有视频录播和专属助教答疑[8][18] - 课程提供四足、人形、机械臂、VLA+RL四个大方向的研究主题,学员可三选一主线,并根据各自方向确定研究主题[18][19] 课程技术框架与产出 - 课程基于最新的Isaac Lab仿真环境,提供可复现的基线代码和真机部署参考代码,涵盖Sim2Real和Real2Sim2Real完整流程[18][19][23] - 学员将学习SAC、PPO、BC、Diffusion Policy等强化学习算法,并在复杂地形鲁棒行走、外推冲击恢复、速度曲线跟踪等任务上进行实战[19][23] - 课程产出包括论文IDEA确认、项目实现、实验指导、写作润色和初稿形成,结营后8周内提供论文维护支持(补实验、改图、润色与回复)[8][18][25] 研究课题示例与师资力量 - 研究课题示例包括基于终身学习的四足机器人跨任务运动技能迁移、神经科学启发下的人形机器人全身运动控制等前沿方向[30] - 授课导师Jack来自美国顶尖高校,是具身智能与机器人领域的博士后研究员,曾在RSS、ICRA、IROS、RAL等顶级会议期刊发表论文并担任审稿人[27] - 课程强调科研闭环,提供从方法、工程、评测到写作、投稿、维护的全流程陪跑,每周设定明确的任务指标和里程碑[18][36]
仅需 1 次演示,机器人就能像人手一样抓遍万物?DemoGrasp 刷新灵巧抓取天花板
具身智能之心· 2025-10-04 21:35
核心技术框架 - 采用“单条成功演示轨迹”替代传统从零开始的探索,将高维抓取任务转化为演示编辑任务 [4] - 通过单步强化学习优化编辑参数,极大简化了训练流程 [4][8] - 结合视觉模仿学习实现从仿真环境到真实场景的迁移 [4][8] 技术实现细节 - 演示轨迹编辑通过调整末端执行器变换和手部关节增量来适配不同物体,其中末端执行器变换用于调整手腕的6D位姿,手部关节增量用于调整手指关节角度 [9] - 单步马尔可夫决策过程将任务重构,观测仅包含初始手腕位姿、初始物体位姿和物体点云,动作仅为编辑参数 [9] - 奖励设计极为简化,仅使用抓取成功和碰撞惩罚的组合,无碰撞且抓取成功时奖励为1,有轻微桌面接触且成功时奖励为0.5,失败或严重碰撞时奖励为0 [9] - 训练效率高,通过IsaacGym的并行仿真,在单张RTX 4090 GPU上训练24小时即可收敛 [9] 仿真环境性能 - 在权威数据集DexGraspNet上刷新性能记录,在基于状态的设置下,训练集成功率达95.2%,测试集已见类别和未见类别成功率分别为95.5%和94.4% [10] - 在基于视觉的设置下,训练集成功率达92.2%,测试集已见类别和未见类别成功率分别为92.3%和90.1% [10] - 展现出极强的泛化能力,训练与测试的泛化差距仅1%,且在物体初始位置随机的情况下仍保持高成功率 [10] 跨平台与跨数据集泛化 - 无需调整超参数即可适配6种不同形态的机器人抓取设备,在未见数据集上平均成功率达84.6% [11] - 多手指手表现最优,例如FR3+Inspire Hand在VisualDexterity数据集上成功率高达99.1% [11] - 仅使用175个物体进行训练,即可在5个不同分布的未见数据集上实现零样本测试,证明其数据效率极高 [12][18] 真实场景应用 - 在真实世界中测试110个未见物体,整体成功率达86.5%,其中规则形状物体如瓶子、盒子、球类水果和软玩具的成功率分别达到95.0%、93.6%、98.3%和96.0% [14] - 首次实现无严重碰撞抓取小薄物体,如硬币和卡片,对此类传统难点物体的抓取成功率达到60.0%至76.7% [14] - 支持语言引导抓取和杂乱场景抓取,在真实杂乱场景中成功率超过80%,且对光照和背景变化具有鲁棒性 [14] 技术优势与局限 - 核心价值在于用简单设计解决复杂问题,在通用性、高效性和鲁棒性三个维度上突破现有方法的局限 [20] - 当前局限性包括无法处理功能性抓取、对高度杂乱场景适应能力弱、闭环能力不足以及小薄物体抓取成功率仍有提升空间 [17] - 未来发展方向包括拆分演示轨迹为短片段以增强闭环能力、融合视觉反馈以应对动态场景、结合语言模型以提升功能性抓取的理解能力 [19]
突然发现,具身相关的公司已经近200家了......
具身智能之心· 2025-10-03 20:02
行业现状与竞争格局 - 国内具身智能领域公司数量已接近200家,包括机器人公司、互联网公司和各类二级研究院,行业参与者众多 [1] - 行业内业务、产品和故事相似度过高,预示着内卷即将到来 [1] - 面对竞争,部分公司选择将机器人本体与应用场景结合以验证商业化能力,而另一部分公司则专注于强化本体研发,将场景验证开放给开发者,以期在后期集成算法并落地,被视为一种更聪明的长期策略 [1] 人才需求与职业发展 - 行业早期发展创造了大量工作机会,但最终能成为主力的将是那些技术栈丰富且能实现落地的人才 [1] - 对于转型或入门的从业者而言,进入该领域面临试错成本高、时间不足和缺乏完整知识体系等障碍 [3] - 一个名为“具身智能之心”的知识星球社区旨在为从业者提供学习、求职内推、升学建议等支持,以降低入行门槛 [3] 社区资源与服务体系 - 该社区已构建覆盖产业、学术、求职和问答的闭环生态 [5] - 社区内部梳理了超过30条技术学习路线,并邀请了数十位来自产业和学术一线的大佬作为嘉宾答疑解惑 [5] - 社区与多家具身智能公司建立了岗位内推机制,可帮助成员对接工作机会 [7] - 社区成员背景多元,来自斯坦福大学、清华大学、智元机器人、优必选等国内外顶尖高校和头部公司 [15] - 社区汇总了海量资源,包括近40个开源项目、近60个相关数据集、主流仿真平台以及各类技术学习路线 [15] - 社区定期举办圆桌论坛和直播,内容涵盖数据采集、灵巧手、VLA模型、大模型规划等前沿话题 [7] 技术研究方向与内容汇总 - 社区关注并汇总了机器人仿真、数据采集、模仿学习、视觉语言动作模型、sim2real、分层决策等具体技术问题 [6] - 技术内容覆盖广泛,具体包括:数据采集与灵巧手 [7]、VLA与VLN模型 [7]、多传感器融合 [7]、机器人操作系统与本体 [7]、协同感知与机器人模型 [7]、Sim2Real泛化 [7]、具身世界模型 [7]、触觉感知 [7]、大模型规划推理与加速 [7]、模型微调 [7] - 学习路线规划详尽,涵盖感知、交互、强化学习、VLN、VLA、多模态大模型、Diffusion Policy、传感器融合、机械臂控制、足式机器人、部署、sim2real、世界模型等多个方向 [15][16][44][46][48][54][56][57][58][60][61][63][64][66][68][69][70][71][72] 行业信息与资料库 - 社区汇总了国内外具身智能领域的高校实验室信息,供成员升学参考 [19][20] - 汇总了涉及教育、宠物、工业等多方向的国内外具身机器人公司 [23] - 汇总了行业相关的研报,以跟踪行业发展与落地情况 [25][26] - 建立了包括机器人导航、动力学等方向的PDF书籍资料库 [28] - 汇总了机器人芯片、激光雷达、相机等零部件制造厂商信息 [30] - 汇总了机器人仿真、抓取、控制等领域的开源项目 [32] - 汇总了ToF与3D相机厂商及技术资料 [34] - 汇总了数据采集方案与多领域开源数据集 [35][36][38] - 汇总了通用及真实场景机器人仿真平台 [40]
具身智能之心招募合伙人啦!课程共建/项目开发/咨询服务等
具身智能之心· 2025-10-02 18:04
公司发展定位与愿景 - 公司从技术分享起步 现已发展成覆盖多个模块的社区运营平台 致力于在具身智能领域发展中贡献价值 超越单纯媒体角色 成为能为行业带来实际价值的平台 [1] - 公司认识到少数人力量有限 因此真诚邀请对具身智能领域有影响力的人士加入合作 [1] 合作方向 - 课程开发合作内容包括搭建面向初学者、企业培训和高校学科建设的课程 以推动行业发展 [2][3] - 硬件研发合作旨在搭建性价比高、易用的具身智能科研平台 降低开发者和初学者的使用门槛 [4] - 开源项目合作目标是共同搭建具备全球影响力的开源项目 [5][6] - 咨询服务合作将承接B端和C端在具身数据、本体、算法和部署等方面的咨询需求 以助力产业升级和人才发展 [7][8] 合作者要求与待遇 - 公司期望合作者具备一定的领域工程经验 或拥有博士及以上学位并在顶会发表过论文 [10] - 合作形式支持全职和兼职 公司将提供行业内有竞争力的报酬 并分享行业资源 [10] - 公司承诺充分保护在企业就职的合作者个人隐私 [9]