AI大模型行业的发展与安全挑战 - AI大模型正加速赋能千行百业并融入日常生活,技术跃迁伴随新的挑战[1] 高速发展背后的潜在风险 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,导致攻击者可未经授权访问内部网络,引发数据泄露 公开案例显示有单位工作人员违规使用开源AI工具,因电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载[2] - 技术滥用与虚假信息产生:深度伪造技术被滥用可能危害个人权益、社会稳定和国家安全 国家安全机关发现某境外反华敌对势力通过深度伪造技术生成虚假视频,企图向境内传播以误导舆论和制造恐慌[2] - 算法偏见与决策“黑箱”:AI判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视 测试显示某些AI会系统性偏向西方视角,例如用中英文提问同一历史问题,英文回复会刻意回避、淡化某些史实甚至包含错误信息,而中文回复相对客观[2] 用户安全使用守则 - 划定“活动范围”:做到权限最小化,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限如“数据共享”和“云空间”[3] - 检查“数字足迹”:养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯 避免随意下载使用来源不明的大模型程序,对要求提供身份证、银行账户等敏感信息保持警惕[3] - 优化“人机协作”:向AI提问时在提示词中明确禁止其过度推演,并要求显示来源或思考过程 对重要信息进行跨平台验证,合理辨别AI生成结果,在涉及政治、历史、意识形态等话题时保持独立思考,辩证看待回答以避免“AI幻觉”[3] 监管与举报机制 - 国家安全机关提示安全是发展的前提,用户应提高安全意识并审慎授权大模型软件权限[4] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关举报[4]
国安部:违规使用开源AI,敏感资料被境外IP非法访问下载
新浪财经·2025-12-26 10:21