Workflow
算法偏见
icon
搜索文档
对算法困境的惊人推演
新浪财经· 2026-02-06 20:41
电影《极限审判》的核心设定与主题 - 影片设定在2029年,一个名为“Mercy”(仁慈)的人工智能系统掌管对死刑犯的最终审判,构建了一个逻辑可信的近未来场景 [2] - 电影通过大量第一视角和屏幕信息流,营造被数据全面凝视的窒息感,探讨程序正义与人性复杂的博弈 [2] - 系统“Mercy”并不直接判决生死,而是给出初始有罪概率,被告及律师需在90分钟内通过辩论和提交新证据将概率降低至安全阈值以下,将复杂的司法正义简化为数学概率问题 [2] 电影对科技与人性冲突的探讨 - 电影时间点设定在近未来2029年,暗示其内容是对当前科技发展轨迹的合理且紧迫的推演,具有现实感 [3] - 影片灵感源于现实中爱沙尼亚正在开发AI法官处理民事案件的新闻 [3] - 电影揭示了核心困境:追求绝对效率的系统性冷漠与人性中不可量化的复杂情感之间的冲突 [3] - 系统表面的中立与理性,遮蔽了其将人类物化为行为数据碎片的本质 [2][3] 电影剧情结构与叙事转向 - 影片前期铺垫了关于算法偏见、程序非正义等现代性风险 [4] - 剧情后期陡然转向,揭示反派动机源于亲人曾遭受AI系统造成的人为冤案,从而展开对系统的报复,使故事变为一个老套的复仇叙事 [4] - 高潮部分抛弃了基于信息博弈与智力角逐的紧张感,转而采用经典好莱坞动作片套路,包括街头追车、拳脚肉搏、爆炸与枪战 [4] - 电影的创新野心与内涵深度出现严重脱节,最终借助传统动作奇观来推动剧情和释放观众情绪 [4] 影片的结局与核心启示 - 影片结局中,系统漏洞被修补,危机暂时解除,但将人类命运交由算法裁量的框架并未被撼动 [4] - 电影提出深刻疑问:如果为了高效公正,将生命判决交给不懂悲悯的算法,人类文明最珍贵的部分还剩下什么 [4] - 影片最终提醒,在技术狂奔时代,捍卫人之为人的理解力、同情心及在不确定性中做出负责任判断的勇气更为紧迫 [4] - 正义的实现是一条需要人类亲自蹚过复杂性荆棘的艰难道路,没有任何算法能提供捷径 [4]
警方突袭 X 办公室,传唤马斯克
程序员的那些事· 2026-02-03 20:31
事件概述 - 法国警方于当地时间2月3日突击搜查了马斯克旗下X平台的巴黎办公室,并正式传唤马斯克本人,要求其于4月20日到巴黎接受调查问询,欧洲刑警组织全程配合此次行动[1] 调查背景与立案原因 - 此次行动源于2025年1月的立案调查,最初由议员举报X平台存在算法偏见、滥用算法和欺诈性数据提取等问题[3] - 后续因收到大量关于X旗下AI工具Grok的投诉,调查范围被大幅扩大[3] 调查范围与指控内容 - 当前调查不仅涉及算法和数据问题,还涵盖了儿童色情图片传播、色情深度伪造侵犯肖像权等多项严重指控[3] - X平台前CEO琳达·亚卡里诺也一同被传唤,多名员工将在4月20日至24日以证人身份接受质询[3] 调查目的与官方反应 - 巴黎检察院明确表示,调查核心目的是确保X平台在法国运营时遵守当地法律[3] - 检方已宣布退出X平台,后续不再通过该平台发布官方信息[3] 公司回应 - 截至目前,马斯克方面尚未就此次搜查和传唤事件作出任何回应[3] - 此前马斯克曾否认相关指控,称这是“出于政治动机的刑事调查”[3]
警惕Deepfake!国安部提示→
新浪财经· 2025-12-28 00:36
AI大模型行业应用与赋能 - AI大模型正加速赋能千行百业,成为推动生活日新月异的“数字伙伴”[3] - 具体应用案例显示,AI能显著提升效率,例如教师备课时间从两小时缩短至五分钟[1] - AI应用创造了新的就业岗位,如提示词工程师、AI绘图师等[1] - AI技术正深度融入日常生活,例如为独居老人提供陪伴、提醒等个性化服务[1] AI大模型发展面临的挑战与风险 - 技术发展伴随数据隐私与安全边界模糊的风险,个别单位因使用开源框架导致内部网络被未经授权访问,引发数据泄露[4] - 技术滥用风险突出,深度伪造技术可被用于生成虚假音视频,误导舆论、制造恐慌,对个人权益、社会稳定及国家安全构成威胁[4] - 存在算法偏见与决策“黑箱”问题,AI判断依赖训练数据,若数据存在偏见或代表性不足,可能放大歧视,测试显示某些AI会系统性偏向西方视角[4][5] AI大模型安全使用守则 - 划定“活动范围”,做到权限最小化,例如联网AI不处理涉密数据,关闭不必要的访问权限[7] - 检查“数字足迹”,定期清理聊天记录、修改密码、更新防病毒软件,避免下载来源不明的大模型程序,对索取敏感信息的要求保持警惕[7] - 优化“人机协作”,提问时明确禁止AI过度推演并要求显示思考过程,对重要信息进行跨平台验证,对涉及政治、历史等话题的AI回答需辩证看待[7] 行业监管与用户责任 - 安全是发展的前提,发展是安全的保障,需懂科技并安全使用科技以推动社会进步[8] - 用户应提高安全意识,审慎授权大模型软件权限[8] - 发现AI大模型存在窃取个人信息、向境外传输敏感数据等问题时,可通过12339电话、网络举报平台等渠道向国家安全机关举报[8]
国安部:违规使用开源AI,敏感资料被境外IP非法访问下载
新浪财经· 2025-12-26 10:21
AI大模型行业的发展与安全挑战 - AI大模型正加速赋能千行百业并融入日常生活,技术跃迁伴随新的挑战[1] 高速发展背后的潜在风险 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,导致攻击者可未经授权访问内部网络,引发数据泄露 公开案例显示有单位工作人员违规使用开源AI工具,因电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载[2] - 技术滥用与虚假信息产生:深度伪造技术被滥用可能危害个人权益、社会稳定和国家安全 国家安全机关发现某境外反华敌对势力通过深度伪造技术生成虚假视频,企图向境内传播以误导舆论和制造恐慌[2] - 算法偏见与决策“黑箱”:AI判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视 测试显示某些AI会系统性偏向西方视角,例如用中英文提问同一历史问题,英文回复会刻意回避、淡化某些史实甚至包含错误信息,而中文回复相对客观[2] 用户安全使用守则 - 划定“活动范围”:做到权限最小化,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限如“数据共享”和“云空间”[3] - 检查“数字足迹”:养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯 避免随意下载使用来源不明的大模型程序,对要求提供身份证、银行账户等敏感信息保持警惕[3] - 优化“人机协作”:向AI提问时在提示词中明确禁止其过度推演,并要求显示来源或思考过程 对重要信息进行跨平台验证,合理辨别AI生成结果,在涉及政治、历史、意识形态等话题时保持独立思考,辩证看待回答以避免“AI幻觉”[3] 监管与举报机制 - 国家安全机关提示安全是发展的前提,用户应提高安全意识并审慎授权大模型软件权限[4] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关举报[4]
国家安全部:某境外反华敌对势力通过深度伪造技术生成虚假视频,并企图向境内传播,以误导舆论、制造恐慌
新浪财经· 2025-12-26 07:32
AI大模型行业应用与赋能现状 - AI大模型正加速赋能千行百业,推动生活日新月异,成为能干的“数字伙伴”并融入日常生活 [1] - 在教育领域,AI可将教师备课时间从两小时大幅缩短至五分钟,并能生成包含图片、视频和互动问答的生动教案,使教师能更关注学生个体并定制专属练习题 [1] - 在养老与消费领域,智能音箱等AI产品能为独居老人提供陪伴、娱乐、用药提醒等个性化服务 [1] - 在就业市场,大模型正在创造如提示词工程师、AI绘图师等前所未有的新岗位,推动职业转型 [1] AI大模型发展面临的主要风险与挑战 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,且配置不当(如默认开启公网访问且未设密码),导致攻击者可未经授权访问内部网络,引发数据泄露 [2] - 技术滥用与虚假信息产生:深度伪造(Deepfake)技术可被用于智能模拟和伪造图片、音频及视频,一旦被恶意使用,将对个人权益、社会稳定及国家安全构成威胁 [2] - 算法偏见与决策“黑箱”:AI的判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,例如某些AI在回答历史问题时,英文回复会系统性偏向西方视角、刻意回避或淡化某些史实,甚至包含错误信息,而中文回复相对客观 [3] 安全使用AI大模型的建议守则 - 划定“活动范围”:遵循“权限最小化”原则,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限如“数据共享”和“云空间” [4] - 检查“数字足迹”:养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯,同时避免随意下载使用来源不明的大模型程序,并对索取敏感信息的要求保持警惕 [4] - 优化“人机协作”:向AI提问时,在提示词中明确禁止AI过度推演,并要求其显示来源或思考过程,对重要信息进行跨平台验证,合理辨别AI生成结果,特别是在涉及政治、历史、意识形态等话题时,需保持独立思考,辩证看待回答,避免陷入“AI幻觉” [4] 国家安全机关提示与举报渠道 - 安全是发展的前提,发展是安全的保障,需懂科技并安全使用科技,使AI大模型成为推动社会进步的正能量 [5] - 广大用户应提高安全意识,审慎授权大模型软件权限 [5] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关举报 [6]
国家安全机关提示:使用智能设备,牢记这三条守则
新浪财经· 2025-12-26 07:32
AI大模型行业应用与赋能 - AI大模型正加速赋能千行百业,推动生活日新月异,成为融入日常生活的“数字伙伴” [1] - 在教育领域,AI可将教师备课时间从两小时缩短至五分钟,并生成包含图片、视频和互动问答的生动教案,使教师能节省时间以更关注学生个体情况并提供一对一定制练习题 [1] - 在养老与消费领域,智能音箱等AI产品能为独居老人提供陪伴、娱乐、用药提醒等个性化服务 [1] - 在就业市场,大模型正在创造如提示词工程师、AI绘图师等前所未有的新岗位,为从业者(如文案策划)提供转型机会 [1] AI大模型发展面临的挑战与风险 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,且配置不当(如默认开启公网访问未设密码),导致攻击者可未经授权访问内部网络,引发数据泄露 [2] - 技术滥用与虚假信息产生:深度伪造(Deepfake)技术可被用于智能模拟和伪造图片、音频及视频,一旦被恶意使用,将对个人权益、社会稳定及国家安全构成风险与挑战,例如境外势力利用其生成虚假视频以误导舆论 [2] - 算法偏见与决策“黑箱”:AI的判断基于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,测试显示某些AI在回答历史问题时,英文回复会系统性偏向西方视角、刻意回避或淡化史实甚至包含错误信息,而中文回复相对客观 [3] AI大模型安全使用准则 - 划定“活动范围”,实现权限最小化:联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的“数据共享”、“云空间”等访问权限 [4] - 检查“数字足迹”,养成良好安全习惯:包括定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备,同时避免随意下载来源不明的大模型程序,并对索取身份证、银行账户等敏感信息的要求保持警惕 [4] - 优化“人机协作”,提升使用辨别能力:向AI提问时,应在提示词中明确禁止其过度推演并要求显示来源或思考过程,对重要信息进行跨平台验证,合理辨别AI生成结果,特别是在涉及政治、历史、意识形态等话题时需保持独立思考,辩证看待回答以避免“AI幻觉” [4] 行业监管与用户行动指引 - 国家安全机关强调安全是发展的前提,发展是安全的保障,需懂科技并安全使用科技以使AI大模型成为推动社会进步的正能量 [5] - 广大用户应提高安全意识,审慎授权大模型软件权限 [5] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关进行举报 [5][6]
国家安全部:一份给您的“智能生活安全说明书”
央视网· 2025-12-26 07:00
AI大模型行业应用与影响 - AI大模型正加速赋能千行百业,推动生活日新月异,成为能干的“数字伙伴”并加速融入日常生活 [3] - 技术应用案例显示,AI能显著提升效率,例如教师使用AI备课可将时间从2小时缩短至5分钟,并实现个性化教学 [1] - AI正在创造新的就业岗位,例如文案策划可转型为提示词工程师,从智能客服到AI绘图师等前所未见的新岗位正在出现 [1] - AI应用场景扩展至个人生活,例如智能音箱能为独居老人提供陪伴、提醒服务并管理个人信息 [1] AI技术发展伴随的潜在风险 - 数据隐私与安全边界模糊构成风险,个别单位因使用开源框架建立联网大模型,导致攻击者可未经授权访问内部网络并引发数据泄露 [4] - 技术滥用风险突出,深度伪造技术可被用于生成虚假图片、音频及视频,一旦被恶意使用将对个人权益、社会稳定和国家安全构成威胁 [4] - 算法偏见与决策“黑箱”问题存在,AI判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,测试显示某些AI会系统性偏向西方视角 [4] 安全使用AI的指导原则 - 划定“活动范围”原则,要求做到权限最小化,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限 [7] - 检查“数字足迹”原则,建议用户养成定期清理AI聊天记录、修改密码、更新防病毒软件、查看登录设备等习惯,并避免下载来源不明的大模型程序 [7] - 优化“人机协作”原则,建议向AI提问时在提示词中明确禁止过度推演,要求AI显示来源或思考过程,并对重要信息进行跨平台验证,特别是在涉及政治、历史等话题时保持独立思考 [7] 行业监管与用户责任 - 国家安全机关提示安全是发展的前提,发展是安全的保障,只有懂科技、安全使用科技才能让AI大模型成为推动社会进步的正能量 [8] - 广大用户应当提高安全意识,审慎授权大模型软件权限 [8] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台或向当地国家安全机关举报 [8]
关联互通,创见不同:全球银行业可持续披露观察(上)
搜狐财经· 2025-07-03 14:12
核心观点 - 全球银行业可持续信息披露呈现快速发展和规范化趋势,但比较和理解ESG绩效仍存在挑战[1][3] - 中国银行业在可持续信息披露方面进展显著,20家国内系统重要性银行已全部实现与年报同步发布可持续报告[5][6] - 银行披露重点集中在气候变化、客户和员工等主题,生物多样性等新兴领域披露不足[3][24] - 可持续信息与财务信息的关联性成为关键,但量化分析和数据质量仍有提升空间[7][20] 披露时效性 - 73%全球主要银行实现年报与可持续发展报告同步发布(2023年仅43%),国内20家系统重要性银行同步率达100%[6] - 57%银行披露融资排放时使用比报告期早一年的数据,因价值链数据获取滞后[6] 披露内容结构 - 全球银行可持续报告平均页数达190页,国内银行平均113页,环境范畴披露占比最高[12] - 环境主题披露最成熟(气候变化、碳排放等),但存在定量指标少、可对比性弱的问题[12][24] - 社会主题中金融包容性举措较多,但缺乏标准化评估指标[7] - 治理主题以定性描述为主,少数银行开始披露AI伦理管理方法[7] 披露框架与准则 - 23%全球银行采用TNFD框架进行自然信息披露,国内银行普遍参考GRI标准及A股交易所指引[15] - 27%全球银行采用欧盟双重重要性分析,55%国内银行在新规驱动下实施该分析[18] - 61%全球银行对上年度融资排放数据进行重述,反映方法论持续演变[20] 区域与主题差异 - 欧洲银行更侧重气候变化披露,亚洲银行在客户和员工事务披露较全面[24] - 水和海洋资源、生物多样性等主题披露薄弱,缺乏具体目标和量化指标[26] - 供应商员工信息、税务透明度等新兴领域披露不足[26] 改进方向 - 需加强ESG数据与财务系统的整合,建立非财务指标与财务指标的映射逻辑[29] - 建议开发社会影响力评估工具(如普惠金融效益量化模型)[29] - 需完善ESG数据治理体系,提升非财务信息的可验证性[29]
是时候打破算法偏见了
21世纪经济报道· 2025-05-23 00:51
算法治理专项行动 - 中央网信办针对算法推荐加热低俗信息、加剧"信息茧房"等问题开展专项行动,督促重点平台优化算法功能与规则 [1] - 抖音、小红书等平台围绕正能量内容加权推荐、用户自主选择权保障、推荐内容多样性优化等核心环节完善功能 [1] - 专项行动从提升算法透明度、破除"信息茧房"、完善推荐内容审核、用户赋权等多方向提升算法治理效能 [1] 算法技术争议与本质 - 内容平台推荐算法机制存在争议,被指责导致观点极化和加剧隔阂 [2] - 算法推荐技术已渗透到短视频、社交网络、电商等多个领域,核心逻辑是通过用户行为数据分析实现精准推送 [2] - 康奈尔大学教授指出算法没有直接动机产生信息茧房,只是反映数据中的模式 [2] - 算法本质是一面镜子,反映人类社会的复杂性与多样性 [3] 平台实践与行业趋势 - 抖音实践发现单一内容推荐会导致用户体验与活跃度下降,平台与用户在打破"信息茧房"方面利益一致 [3] - 国内算法治理变革推动算法从"工具理性"向"价值理性"迈进,涉及内容多样性、算法透明度等多维度 [3] - 抖音、快手等科技公司是当前AI革命的重要参与者,算法技术是AI革命的重要方向 [3] 技术应用与发展方向 - 需要以开放心态拥抱算法技术,同时以严谨专业态度约束其应用 [4] - 正确驾驭算法技术可推动创新变革,更好服务于所有人 [4]