该担心龙虾控制我的人生吗?
虎嗅APP·2026-03-19 22:19

AI Agent的技术定位与产业发展阶段 - 当前AI产业的发展处于“预期膨胀的顶峰期”,OpenClaw和AI Agent本质上是围绕技术讲故事,从技术到产品仍有相当长距离[6] - 类比互联网泡沫期,泡沫能孵化出优秀的技术、商业模式和公司,如同火箭推进器,快速推动技术发展,泡沫破裂后将进入“幻灭期”,随后技术成熟并被普遍使用[6] - OpenClaw与AI Agent并非同一代技术,OpenClaw更极端,它赋予了AI工具执行能力,能直接操控电脑、下单、写文章等,是AI Agent的进一步延伸[8] - 产业已开始关注为AI准备数据的相关领域,包括数据后处理、预处理、标注、合成数据等[8] - 未来AI将进入“启蒙期”,届时大众不再过度讨论,AI要么成功落地,要么就此消亡[9] AI Agent作为未来需求入口的商业范式变革 - AI Agent将成为未来一切需求的入口,用户将不再逐个打开APP,而是通过向AI Agent表达需求来调用各种应用完成任务[9] - 商业模式将从移动互联网时代的“人找服务”转变为“服务被AI Agent调用”[9] - 智能手机时代的数据由各平台分散收集,而AI时代数据很可能集中到一个AI Agent上,使其成为最了解用户的数字系统[9][10] - 这种集中化引出了隐私让渡与责任界定的核心问题[9] AI Agent时代的隐私、伦理与责任挑战 - AI Agent时代个体的隐私权可能不再由自己掌控,为了获得AI带来的颠覆性好处(如疾病治疗),用户可能需要让渡包括生活作息、基因信息等在内的全部隐私数据[12] - 用户对隐私让渡的接受度取决于两个核心因素:一是能获得的实际好处,二是掌控AI技术的企业是否具备足够的可信度[14] - 理想的隐私与数据治理机制核心是实现“数据获取与收益对等”,每一次隐私数据的让渡都必须让贡献者获得高于让渡成本的实际回报,且数据获取必须有明确目的性与相关性[14] - 责任界定是更复杂的核心问题,AI Agent可能的发展范式包括“一家企业垄断入口”和“统一入口+多元应用生态”,从治理角度看后者更健康,便于国家适度管控和不同公司分场景承担责任[15] - 当AI替代工厂所有管理人员并掌握控制权时,工厂的实际运营主体和责任归属将面临界定难题[12] 从ESG框架看AI Agent对企业治理的重塑 - AI治理应作为横跨环境(E)、社会(S)与治理(G)三大维度的复合议题来理解,而非ESG之外的第四支柱[19] - 对于深度部署AI Agent的企业,其治理问题可能演变为具有财务实质性的风险与机遇,有必要纳入ESG视野[19] - 企业治理重点必须从传统的数据安全、模型准确性前移到行为约束、权限边界、问责机制、人类监督等方面[20] - 企业责任边界从关注“输出结果”延伸到关注“行为过程”,必须对AI Agent如何行动、在何种权限下行动、是否触发高风险决策等负责[21] 1. AI治理不仅是技术控制问题,也是涉及社会影响与基本权利保障的责任议题,关涉员工公平、数据隐私、算法歧视、消费者知情权等[21] 2. AI Agent为企业打开了新的风险传导渠道,可能放大网络安全风险、权限失控、虚假信息传播等风险,应纳入企业整体风险管理体系协同处理[21] 3. AI既可能是ESG风险源(如高能耗、劳动力替代压力),也可能是ESG价值创造工具(如气候建模、资源效率提升),关键在于企业在什么治理条件下使用AI以及能否形成净的可持续价值[22] AI治理在ESG各维度的具体实践 - 在治理(G)层面:企业需明确AI的治理架构与责任归属,包括董事会的监督职责、管理层对部署与审查的管理职责,以及各部门间的分工边界[25] - 在社会(S)层面:重点应放在AI对人的实际影响上,包括偏见测试、员工影响评估、数据权益保护、建立申诉与补救机制等,许多议题(如算法歧视)需要交叉治理而非分栏管理[25] - 在环境(E)层面:企业应同时衡量AI的环境足迹(如训练推理能耗、硬件生命周期)与环境效益(如帮助其他业务环节减排),AI不能因“数字化”标签自动被视为绿色[25] - AI Agent正在推动ESG治理更加关注行为本身、系统逻辑及长期影响,企业责任边界扩展到管理那些代表企业行动的半自主数字系统的行为[26]