阿里魔搭平台
搜索文档
被AI支配与反抗的一年
36氪· 2026-01-05 19:13
文章核心观点 2025年被描述为AI全方位进入生活的元年,技术在带来进步与便利的同时,也引发了广泛的社会冲突与集体焦虑,这些冲突深刻改变了数百万人的生活,并正在重塑社会[1][2] 隐私冲突 - AI技术极大降低了内容创作门槛,使无技术背景的用户也能轻松生成高质量图像和视频,创作领域呈现百花齐放的局面[3][4] - 技术便利伴随严重的隐私风险,AI不仅能分析用户兴趣,甚至可能窥探其“潜意识”,导致用户与大模型之间的信任危机蔓延[3] - 个人数据极易被用于AI训练,例如仅用一张照片即可被“锁脸”并生成不受限制的内容,而使用近百张公开图片训练专属模型的过程几乎没有门槛[5] - 伪造技术(如克隆声音、生成图像视频)变得触手可及且应用普遍,加剧了社会对数字内容真实性的不信任,显著提高了验证成本[8][9] - AI隐私泄露风险急剧上升,存在直接泄露(用户输入数据被意外泄露)和间接泄露(AI主动抓取分析用户公开信息)两种方式[13] - AI厂商与用户之间存在严重互不信任:B端用户担心数据被不当使用,C端用户担心个人信息被Agent抓取;而AI厂商则惧怕核心技术与算法被盗取[12][13] - 行业正尝试通过加密技术、安全验证机制及新型的“模型即服务”(MaaS)模式来搭建信任桥梁,以保护隐私和商业机密[13][14] 服务冲突 - AI客服被企业广泛采用以追求运营效率与降低成本,但常因无法理解复杂语境和情绪,导致用户体验疏离,成为“数字围墙”的象征[16] - AI客服的引入导致初级人工客服岗位被取代,某公司外包客服团队十余人因系统升级而不再续签合同,被优化人员面临再就业困难[17] - 用户与AI客服互动时遭遇挫折,例如退款请求被机械性拒绝,需通过输入特定关键词如“我要投诉”才能转接人工,过程耗费大量时间与精力[20][21] - 尽管AI客服实现了全天候服务与成本控制,但其在灵活处理规则外需求、安抚客户情绪等方面的能力受到质疑,被取代的客服人员认为其经验价值被低估[18] 知识产权冲突 - 2025年AI产业陷入版权风暴,OpenAI、Google、Meta、xAI等国际巨头以及国内公司接连被作者、媒体与艺术家集体起诉,索赔金额达数百万至数亿美元[22] - 冲突核心在于个人创作风格被无偿“喂养”给AI进行训练,引发风格保护与数据学习是否构成侵权的激烈争论[22] - 有旅行插画师发现其标志性风格(如白色豆豆眼镜、草帽)被AI模型像素级学习并复刻,相关模型一度登上HuggingFace排行榜前十,尽管模型作者声称未商用盈利,但该行为仍引发对侵权界定与版权保护不完善的质疑[23][24] - 网文行业出现平台在作者协议中新增“AI条款”的争议,有作者发现其作品风格被同系AI产品学习,引发作者集体断更抗议,最终条款被删除[26][27] - AI工具降低了网文写作门槛,使“日更万字”成为可能,平台虽提供官方AI工具辅助创作,但并不鼓励纯AI生成内容,违规者可能面临限流或封号[28] - 行业面临如何界定AI生成内容版权归属的难题,权利方可能涉及素材原作者、模型使用者、平台或模型本身,目前尚无明确法律判定[5][10] 求职冲突 - AI面试已成为大厂及AI企业校招的常见方式,企业借此实现降本增效与标准化筛选,但求职者需适应冰冷的算法考核,催生了“用AI反制AI”的作弊手段[30] - 有应届毕业生反映,秋招季将三分之一精力耗于AI面试,过程孤独且令人窒息,最长一场达半小时,包含性格测试、中英文问答,全程无真人互动[32][33] - 求职者为迎合AI评分标准,被迫改变表达习惯,使用书面化、结构化的语言,反而限制了真实发挥,同时还需应对系统语音识别错误的问题[34] - 为通过筛选,部分求职者使用AI插件在面试中实时生成答案进行作弊,导致招聘陷入“AI监考”与“AI作弊”的攻防战困境[35] - 招聘服务商指出,AI面试可根据岗位、候选人经验进行个性化适配,实现“千人千面”,评估维度不仅看答案完美度,也关注候选人的状态与潜力[36][38] - 企业端的核心诉求是降本、提效与标准化,AI面试可自动化处理数百份简历,避免人工初筛的主观偏差,但同时也引发了关于招聘公平与技术效率失衡的讨论[30][36] 算法“误杀”冲突 - 反诈系统在打击诈骗过程中存在“误伤”普通用户的情况,可能导致电话停机、支付冻结,给受影响个体带来生活困扰[41] - 有用户因跨省拨打二十多通电话联系酒店,手机号码被系统判定为通信行为异常而遭停机,解封需经历复杂的线上身份验证流程,包括上传SIM卡照片、手持身份证等[41][42] - 反诈系统是由公安部、国家反诈中心与电信运营商共同构建的AI风控模型,出于案件侦破需要,小比例的“误伤”在客观上很难完全避免[44] - 有案例显示,正规商户的个人支付账户因收到涉及不法案件的资金流转而反复被冻结,尽管用户感到委屈,但从案件侦破角度,此类措施有时是必要的[44][45] - 受影响用户普遍希望反诈技术能更加精准,并在发生“误伤”后能提供更顺畅、便捷的申诉与解封通道[42]
9月1日起,AI生成内容需持“身份证”,不标识或面临严格处罚
36氪· 2025-09-05 15:20
新规生效与监管框架 - 国家网信办、工信部等部门联合发布的《人工智能生成合成内容标识办法》及配套国家标准于9月1日正式生效[1] - 监管责任覆盖内容生成到传播的全过程,对模型开发者提出标识要求,对社交媒体平台规定核验和添加标识义务,形成全链条责任体系[1] - 核心约束力体现在“必须标识”和“规范标识”两个层面,为国际社会提供了AI生成内容治理范例[1][7] 平台执行现状与差异 - 抖音、小红书、B站等主流视频网站已允许创作者在发布视频时于“创作声明”中主动标识AI生成内容[1] - 平台间标识明显度存在差异,B站在视频左下角和简介中均显示提示,小红书标识则较为隐蔽,需点击作者头像才能看到[2] - 对于未主动标识的AI生成内容,平台自动识别能力较弱,抖音可识别部分,而B站和小红书在测试中两条均未有效识别[1][4] 技术滥用风险与平台漏洞 - AI滥用案例屡见不鲜,例如有博主利用AI仿冒奥运冠军全红婵声音带货土鸡蛋,17条视频累计销售超4.7万件[5] - 在3·15期间测试中,带有明显AI换脸痕迹的视频均顺利上传且未被平台自动检测,即便标题明确标注“AI换脸”也未触发警示[5] - “深度伪造”内容如不加声明将面临严格处罚,平台若未履行核验和提示义务也可能被追责[7] 合规要求与违规处罚 - 违规处罚措施包括对AI生成服务提供者的警告、通报批评、责令限期改正,对未尽义务的传播平台的监管处罚,以及对恶意用户的平台处罚乃至民事、行政、刑事责任[7] - 典型违规现象为用户使用“AI换脸”或“AI声音模仿”功能制作发布名人恶搞或不实信息视频,而App开发者未添加显著标识[7] 创作者影响与行业规范化 - 平台对AI生成内容规范的收紧使创作者感知明显,行业规范化有助于防止伪造图片骗取流量等不规范行为[8] - 潜在风险在于部分甲方可能排斥带有明显AI标识的内容,从而影响创作者收益[11] - 从2022年底至今,平台管理越来越严格,AI创作正走向更加规范的未来[11] 技术门槛降低与版权问题 - 技术门槛大幅降低,技术小白可在不到一天时间内使用近百张图片在开源平台训练出专属模型,每天能生成1000张逼真图片[11][12] - AI模型训练所使用的图片素材(如大量来自小红书的图片)可能未获原作者授权,导致图片所有权归属模糊[14] - AI作品版权在法律上争议很大,《办法》要求文件元数据包含“生成合成服务提供者”、“内容制作编号”等信息,以帮助追溯源头服务平台和生成记录[17] 合规建议与责任界定 - 建议使用AI工具创作时在合理位置添加“AI生成”显著文字提示,以避免“冒充原创”嫌疑[17] - 用户必须仔细阅读用户服务协议,了解平台对生成内容版权归属、使用限制及侵权责任划分的规定[17] - 为应对潜在纠纷和监管检查,建议系统保存AI服务提供商信息、完整输入提示词、原始文件、修改记录以及用户服务协议副本[18]