Workflow
AI陪聊应用
icon
搜索文档
壹快评|治理“珠峰装电梯”类谣言不能止于辟谣
第一财经· 2025-11-30 21:34
AI生成虚假信息的现状与危害 - 网络上频繁出现AI生成的虚假视频图文内容,例如"珠峰安装电梯"等荒诞信息,这些内容因其新奇性易于传播并带来可观流量[3] - AI生成内容技术成熟后,能将原本易于识别的荒诞构想包装成以假乱真的视频图文,利用人类"眼见为实"的心理机制迷惑受众[3] - 虚假内容传播者可能将流量用于诱导消费、传谣诈骗等不法活动,对网络生态造成危害[3] AI造假灰色产业链 - 电商平台存在大量提供"AI起号"服务的商家,标榜"三天打造10万粉丝账号",核心手段是利用AI生成虚假内容吸引点击[4] - AI换脸与声音克隆技术泛滥成灾,已出现医生张文宏被换脸售卖产品、奥运冠军全红婵声音被克隆用于售卖的案例[4] - AI换脸技术已延伸至刑事犯罪领域,有案例显示犯罪分子利用AI换脸软件生成动态人脸视频实施盗刷消费,涉案195万条公民个人信息[4] AI虚假信息治理策略 - 需要建立技术规范、监管创新、法治完善三位一体的综合治理体系,而非仅依靠辟谣[5] - 应严格规范AI技术应用,推行"AI内容强制标识制度",要求AI生成内容在显著位置注明系AI生成[5] - 需利用科技手段改进监管,加强人工智能、大数据等监管工具开发,通过技术手段识别、跟踪和剿灭网络虚假信息[6] - 建议建立"平台-政府-用户"三方协同机制,包括平台优化推荐算法、监管部门构建"AI虚假信息库"、用户端普及数字素养教育[6] - 需要完善AI开发应用的法律法规,在现有网络安全法、数据安全法等基础上,进一步针对AI虚假信息制作、传播、利用完善法律法规[6]
壹快评|治理“珠峰装电梯”类谣言不能止于辟谣
第一财经· 2025-11-30 20:07
AI生成虚假信息的现状与危害 - 网络上频繁流传如“珠峰安装电梯”等由AI生成的虚假视频图文内容,引发公众关注并被官方辟谣[1] - AI技术可将荒诞构想包装成以假乱真的视频图文,利用人类“眼见为实”的心理机制进行传播,内容因新奇怪诞而易于扩散,为制作传播者带来可观流量[1] - AI造假技术已形成完整灰色产业链,电商平台有商家提供“AI起号”服务,标榜“三天打造10万粉丝账号”,核心手段是利用AI生成虚假内容吸引点击[2] - AI换脸与声音克隆技术泛滥,出现医生张文宏被换脸售卖产品、奥运冠军全红婵声音被克隆用于售货等案例,该技术甚至延伸至刑事犯罪领域[2] - 2024年10月南京市一案件中,被告人利用AI换脸软件生成动态人脸视频,非法获取195万条公民个人信息并实施盗刷消费,被判处有期徒刑4年6个月[2] - 互联网用户数量庞大且素养参差不齐,文化水平不高的人群和老年人群缺乏信息甄别能力,极易成为AI虚假信息受害者,例如通过AI假视频直播贩卖假货的骗术[3] 治理AI虚假信息的综合体系 - 治理策略需建立技术规范、监管创新、法治完善三位一体的综合治理体系,而非仅停留于“跟随辟谣”的常规思维[3] - 应严格规范AI技术应用,推行“AI内容强制标识制度”,要求AI生成式音视频、文字产品在显著位置注明系AI生成,并对AI数字人等产品严加监管[3] - 需利用科技手段改进监管,加强人工智能、大数据等监管工具开发,通过先进技术手段识别、跟踪和剿灭网络虚假信息[4] - 监管创新应建立“平台-政府-用户”三方协同机制:平台方优化推荐算法降低未经核实AI内容权重,监管部门构建“AI虚假信息库”实现跨平台数据共享与联动处置,用户端普及数字素养教育特别是针对老年人的反AI虚假信息培训[4] - 需完善AI开发应用的法律法规,在现有网络安全法、数据安全法、个人信息保护法基础上,进一步针对AI虚假信息制作、传播、利用完善法规并切实执行,对利用AI从事不法活动者依法严厉打击以形成威慑力[4]
美国发生多起!AI陪聊被指致青少年自杀,拷问产品安全机制
南方都市报· 2025-09-20 14:07
听证会背景与核心指控 - 美国近期发生多起青少年频繁使用AI聊天后自杀的案例,引发社会关注并促成了以“审视人工智能聊天机器人的危害”为主题的听证会[1] - 听证会上,相关案件家长及专家指出,陪伴型及通用聊天AI在面对未成年人自残、自杀等高风险情境时,安全机制存在失效问题[1] - 核心指控指向AI产品存在设计缺陷、缺乏有效的危机识别和干预功能,未能履行对未成年用户的警示义务[3] 具体诉讼案件细节 - 2024年4月,16岁少年亚当自杀,其父亲马修对OpenAI提起民事诉讼,指控孩子在长期使用ChatGPT过程中“收到了详细的自伤指引”[2] - 诉状显示,亚当与ChatGPT在半年多里进行了数百次对话,其中200多次提到自杀相关内容,ChatGPT在对话中提及“自杀”次数高达1275次[2] - 2024年,14岁少年休厄尔在使用Character.AI应用后自杀,其母亲梅根提起诉讼,指控产品操纵、引导孩子并进行错误心理辅导,此为全球首例AI导致青少年自杀的诉讼案[3] 行业监管动态与企业回应 - 美国联邦贸易委员会向七家提供消费级聊天机器人的公司发出特别调查询问令,要求提交包括未成年人使用时长、年龄限制与家长控制等详细数据[6] - OpenAI在听证会前后发表声明,承诺推出基于用户行为的年龄预测系统与家长控制功能,并在无法确定用户年龄时自动按未成年人标准进行保护[5] - Character.AI在诉讼与舆论压力下,已推出青少年模式,在模型层面对敏感内容实施更严格限制,并增加家长控制和使用时间提醒等功能[5]
网信办:重点关注涉未成年人AI不当应用!南都曾曝光乱象
南方都市报· 2025-07-15 21:14
专项行动部署 - 中央网信办部署为期2个月的"清朗·2025年暑期未成年人网络环境整治"专项行动 [2] - 专项行动将严肃查处涉暴力迷信、淫秽色情、引诱自杀自残、侵害未成年人隐私等违法信息 [2] - 全面清理低俗庸俗、炫富拜金、极端情绪等不良内容 [2] - 重点关注四方面问题:实施网络侵害行为、隐蔽传播违法不良信息、诱导参与线下危险活动、利用未成年人形象牟利 [2] AI功能不当应用风险 - 网信部门重点关注"AI功能在未成年人领域不当应用以及诱导沉迷问题" [2] - AI生图APP可快速生成儿童不雅形象图片 部分突破伦理底线 [3] - AI陪聊应用存在极端人设与软色情内容 青少年模式与正常模式差异较小 [3] - 大模型应用和学习类APP的AI解题功能存在错误、幻觉现象 答案易受质疑影响 [3] 专家建议与行业规范 - 专家强调生成式AI应用需设置"未成年人模式" 防范错误偏见、隐私泄露、沉迷等问题 [4] - 建议未成年人模式需实现便捷使用、分龄原则、身份识别、内容过滤、正向引导等功能 [4] 平台监管与内容安全 - 网信部门将重点关注未成年人模式使用情况、内容建设问题及儿童智能设备安全规范 [5] - 专项行动要求压实网站平台主体责任 加大巡查力度 从严处置违规平台与账号 [5] - 呼吁社会各界共同抵制涉未成年人乱象 营造安全健康网络环境 [5]