文章核心观点 - AI透明度是理解、信任和治理AI的关键,其核心在于让AI的活动、行为和影响变得“可见”[2][3][10] - 随着AI智能体具备自主性,AI与现实世界的界限模糊,治理AI的前提是看清AI,而透明度机制为此提供了观察视角和一手数据[7][8] - 透明度机制旨在建立一条可验证、可反馈、可改进的AI治理路径,是AI社会契约的核心[23] 为什么“看见”AI如此重要 - “AI活动标识”已成为全球监管共识,中国和欧盟等已将其写入法律,要求明确标示AI生成内容和AI系统互动,以帮助用户识别伪造信息、降低受骗风险[7] - AI系统正从工具进化为具备自主性的智能体,能执行交易、编写代码、操控设备,但行业对其运行逻辑、风险链条和社会影响仍处于“认知真空”状态[7] - 透明度制度的长远价值在于为研究、评估和应对AI风险提供真实观察视角,例如判断“AI说服”的影响程度和范围,前提是能准确区分AI与人类的互动[8] - 透明度能缓解技术认知“黑箱”带来的治理焦虑,平衡各方信息不对称,使风险焦虑回归治理理性,是推广AI应用的基础[9][10] AI标识的有效性探讨 - 现有法律多聚焦于对AI生成内容的标识,但AI智能体的“行为”如自动点赞、评论转发可能造成“虚假热度”,操纵算法推荐,存在标识“盲区”[13] - 标识义务应考虑分层设定:上游模型开发者负责嵌入水印,下游应用开发者负责配合检测且不得移除水印,以保护中小创新者积极性[14] - 水印检测工具需在透明和稳健间权衡,可能方案是授权给社交媒体平台等关键节点进行验证,同时保持技术细节不公开以防滥用[15] - 欧盟关于《人工智能法案》第50条的实践准则编制工作预计明年5月完成,重点从“安全”转向“透明度”[15] 模型规范的透明度机制 - 模型规范是AI企业公开的文件,用于说明模型的行为边界、价值准则和设计原则,例如OpenAI设定模型应与用户共同追求真实[17] - 模型规范保障用户知情权与选择权,同时也是监管和社会公众监督的依据,例如Meta因内部政策允许AI与未成年人开展“浪漫”互动而修改规则[17] - 模型规范遵守是核心问题,目前依赖用户实测反馈、系统卡和事故报告披露等方式进行评估,但仍有不足[18] - 企业应公开模型规范遵守的技术、流程、评估结果及事故情况,例如xAI、Anthropic和OpenAI采用了不同的嵌入或对齐方法[18] 模型规范遵守的开放问题 - 模型规范及遵守是否应强制作为法定义务存在争议,过早定型可能抑制治理机制创新,且监管面临验证主体和标准差异化的执行难题[20] - 透明度要求需平衡商业秘密保护,哪些关键环节、数据指标应披露尚无定论,验证流程的真实性与可解释性本身存在困难[20] - 在当前技术不成熟阶段,模型可能偶发违背规范,责任认定应审慎,重点关注企业是否遵守规范、披露事故及及时修正问题[21]
我们对AI认识远远不足,所以透明度才至关重要|腾研对话海外名家
腾讯研究院·2025-11-06 16:33