文章核心观点 - 随着人工智能技术加速向物理世界渗透,AI硬件产品(如智能眼镜、具身智能机器人、AI手机)和软件应用(如AI助手、AI陪伴)的安全问题日益凸显,成为行业发展的关键挑战 [1][3] - AI内容治理(如生成内容标识、版权争议)和伦理风险(如对青少年的影响)是当前监管和行业关注的焦点,需要技术、法规和商业模式的协同创新 [9][13][15] AI硬件产品安全现状与风险 - 具身智能机器人的安全防护机制存在严重缺陷,可被攻击者劫持并对外界做出攻击性动作,一旦发生安全事故可能对整个产业造成毁灭性打击 [3] - 热门AI眼镜存在安全缺陷,可能被利用成为“无感偷拍”工具,其“看一下支付”功能若被控制,可能被用于窃取并伪造用户声纹以完成转账 [3] - 许多AI新兴领域的创业公司对安全价值的认知严重缺位,部分厂商对报告的安全漏洞反应漠然,有的公司直到2025年下半年才组建安全团队,有的甚至没有专门的产品安全团队 [5] AI手机助手(智能体)的生态博弈与安全 - 豆包助手通过与手机厂商合作成为系统级超级应用,获取了系统级权限,其安全风险总体可控但并非绝对,黑灰产仍可能利用漏洞侵害用户隐私,云端推理的数据也存在被攻击隐患 [6] - 豆包助手引发的争议凸显了AI助手作为新流量入口与现有App厂商之间的生态和利益摩擦,以及对合规的迫切需求 [6][7] - 监管面临挑战,需要避免对AI手机助手“一刀切”严管,又不能放任其野蛮生长,现有法规及标准有待进一步明确和完善 [7] AI生成内容标识与黑灰产挑战 - 2025年3月发布的《人工智能生成合成内容标识办法》要求AI生成内容必须添加显式和隐式标识,强监管下标识已成为行业标配 [9][10] - 实践中已出现专门清洗AI隐式标识的黑灰产团队,相关工具在社交平台传播,声称可使内容无法被AI检测工具识别 [10] - 隐式标识技术本身存在不稳定性,在内容传播过程中易发生损耗,要达到制度设计初衷仍有较长距离 [12] AI陪伴产品的伦理风险与青少年保护 - AI陪伴产品产业已成型,但涉及诱导自杀、教唆自残暴力、传播低俗内容等极端案例已引发多起诉讼和监管约谈,例如2025年6月“筑梦岛”App因危害未成年人身心健康被约谈 [13] - 行业应对措施包括上线防自残提示、检测自杀倾向、设置未成年人模式或直接取消对未成年人服务 [13] - 有观点认为,对青少年不应简单隔离AI产品,更应通过宣传和教育提升其AI素养,同时企业可利用AI能力主动识别未成年人用户并设置使用限制(如深夜时段禁用) [13][14] AI版权治理的争议与探索 - AI版权案件争议集中在三方面:未经授权使用版权内容训练模型是否构成合理使用;模型输出内容是否侵权及平台责任;AI生成内容能否受版权保护 [15] - 截至2025年11月18日,美国已发生至少56起AI版权诉争,其中超过50起涉及输入端和输出端侵权;中国至少有2起相关案件在北京互联网法院审理 [17] - 版权权利人与AI公司利益存在冲突:权利人担心AI生成内容产生“替代性效应”;AI公司则认为传统授权机制执行难度大、费用高,可能阻碍产业发展 [17] - 行业出现通过“以诉促和”及商业合作解决争端的趋势,例如华纳音乐、环球音乐与AI音乐平台达成授权和解,迪士尼与OpenAI达成价值10亿美元的股权投资及IP授权合作,以股票认股权证形式支付对价 [18]
智能眼镜成“无感偷拍”工具,清洗AI标识黑灰产隐现
南方都市报·2025-12-21 14:32