技术成熟度评估标准
搜索文档
瞭望 | 以伦理治理建人机共生秩序
新华社· 2025-11-18 11:06
文章核心观点 - 具身智能的发展使人机边界动态模糊,对现有治理方式提出新需求,需构建系统化、前瞻性的伦理治理框架以提供清晰导向并增强社会信任 [1] - 科研界与产业界需协同构建有效治理体系的中国方案,为具身智能规范发展提供理论支撑和实践指导 [1][5] 具身智能引发的伦理挑战 - 大模型的"黑箱"特性使决策过程不易完全解释和预测,对传统基于人为设计、机器执行模式的责任认定机制提出挑战 [2] - 具身智能系统高度依赖环境数据进行决策,可能涉及个人敏感信息,现行隐私保护法律法规对其规制能力有限 [4] - 具身智能渗透到体力与认知结合的劳动场景,形成人力替代,对部分传统岗位构成压力并引发就业结构调整 [4] 应对挑战的探索与方案 - 学界和业界提出建立AI保险制度、设立算法透明度要求、创建多方共担责任机制等多种方案以解决责任划分问题 [2] - 技术层面,隐私计算技术正逐步应用,力求在数据利用与隐私保护之间实现平衡 [4] - 多国政府与企业正通过职业培训体系更新、岗位结构优化与终身学习机制建设,应对就业结构转型 [4] 构建治理体系的中国方案 - 建议建立分级授权的治理模式,根据应用场景重要性、决策后果严重性及技术成熟度界定系统自主决策权限 [6] - 低风险决策可交由系统自主完成,中等风险决策需人类监督确认,高风险决策必须由人类主导 [6] - 可引入技术成熟度评估标准,在技术相对成熟、错误率较低领域给予系统更大自主权 [6] - 提倡采取社会实验方式探索有效治理模式,例如在多个城市开展试点,推行人机协作职业认证体系 [7] - 应建立政府、企业、学术机构、社会组织多方参与的协调机制,形成多元共治模式 [7] - 中国应积极推动将隐私计算、伦理约束等治理理念纳入国际标准化组织的相关标准,引领全球治理规范 [7][8]