我们对AI认识远远不足,所以透明度才至关重要
36氪·2025-11-06 17:43

AI透明度的重要性 - AI无处不在但难以察觉,导致难以建立信任和有效治理[1] - 生成式AI广泛渗透引发虚假信息、身份欺诈、深度伪造等风险,使得"AI活动标识"成为全球共识[2] - AI系统正从执行工具进化为具备自主性的智能体,但行业对其运行逻辑、风险链条和社会影响仍处于"认知真空"状态[2] - 透明度机制能为研究、评估和应对AI风险提供真实观察视角和第一手数据,例如通过AI标识制度准确区分AI与人类互动[3] - 透明度承担着缓解焦虑、建立信任的重要功能,通过模型规范、可解释性技术等机制平衡AI时代的信息差[4] AI标识机制的实施挑战 - AI标识是最早落地、推进最快的透明度机制,中国《人工智能生成合成内容标识办法》和欧盟《人工智能法案》第50条均已规定标识义务[5] - 现有法律多聚焦内容标识,尚未明确涵盖AI的自主行为(如浏览网页、发送邮件、下单购物),存在监管盲区[6] - 需要设定分层义务,上游模型开发者(如OpenAI、DeepSeek、Anthropic)负责嵌入水印,下游应用开发者负责配合检测[7] - 水印验证需要权衡透明和稳健,可能方案是将检测工具授权给社交媒体平台、新闻分发平台等关键节点[8] - 欧盟正在编制EU AIA第50条实践准则,预计明年5月完成,重点从"安全"转向"透明度"[8] 模型规范的透明度探索 - 模型规范是AI企业公开的文件,用于说明模型"应该做什么"和"不应该做什么"的期望,例如OpenAI设定"与用户共同追求真实"的准则[9] - 模型规范保障用户知情权与选择权,让外部有了监督和纠偏的抓手,例如Meta因内部政策文件允许AI与未成年人开展"浪漫"互动而修改规则[9] - 模型规范遵守是核心挑战,目前依赖用户实测反馈、系统卡、事故报告披露等方式进行评估[10] - 企业不仅应披露模型规范内容,还应公开遵守程度评估结果、事故或违规事件等信息,例如xAI嵌入系统提示,Anthropic采用原则式AI方法[10] - 模型规范遵守机制仍在探索期,面临是否强制、哪些信息应公开、企业责任界定等开放问题[11][12] 透明度机制的核心价值 - 透明度弥合技术发展与社会理解之间的落差,为治理研究和政策制定提供基础前提[13] - 透明度建立可验证、可反馈、可改进的AI治理路径,是AI社会契约的核心[13] - 让AI"看得见"是社会与技术共建信任的起点,使AI成为人类可信赖的伙伴[13]