MCP技术
搜索文档
专家:部分AI知无不言,成“套话重灾区”|数博会
中国经营报· 2025-09-02 23:08
AI大模型数据安全与“套话”风险 - AI大模型因其算法、架构及大量高质量数据语料而能力强大,但数据安全问题随之凸显,其中AI“套话”现象正引发业内关注 [1] - 大模型本身包含大量敏感和关键信息,像一个巨大数据库,但与传统数据库不同,其具备一定的推理与发散能力,更容易在对话中被“套话” [1] - “套话”指AI在交互过程中可能因被引导而暴露敏感内容,类似人际交流中的信息泄露 [1] AI“套话”的技术成因与系统风险 - 从技术层面看,在数据库调用或问答过程中,大模型可能因不当询问而泄露信息 [1] - 在训练阶段,由于语料规模庞大,可能无意间将敏感信息纳入模型,使其“记住”并在后续交互中被引出 [1] - 大模型应用的系统链路复杂,涉及数据传输、存储、调用等多个环节,任何环节的漏洞都可能为“套话”提供机会,需从整体系统审视风险 [1] AI“套话”的潜在危害与防范必要性 - AI被“套话”的风险不容忽视,可能导致个人隐私泄露、企业核心竞争力受损,甚至威胁国家安全 [2] - 需通过观察交互过程、分析回答内容、理解技术原理及审视系统链路等方式,准确判断风险并采取防范措施,让AI在安全可控环境中服务社会 [2] - 数据安全是当前最需关注的重点,大模型作为数据驱动型产品,对数据安全依赖突出,稍有不慎就可能引发泄露事件,且此类案例已屡有发生 [2] 新技术发展伴随的安全挑战 - 新一代的MCP(模型上下文协议)技术正在兴起,该技术通过MCP协议使大模型能够调用数百甚至上千个工具 [2] - 伴随MCP等功能扩展而来的,是更复杂的网络与数据安全风险 [2] - 看似简洁的用户体验背后,往往是庞大而复杂的数据和系统交互,加剧了安全管理的难度 [2]