ChatGPT Plus服务
搜索文档
2年学术资料全没了!高校教授一次点击酿成“惨剧”
新浪财经· 2026-02-24 11:54
AI工具在学术应用中的核心事件 - 德国科隆大学教授Marcel Bucher在关闭ChatGPT的“data consent”选项后,其过去2年积累的学术资料被永久清空且无法恢复,这些资料包括赠款申请构思、教材草稿、论文润色记录、课程设计与考试分析等 [1][4] - 该事件源于一次设置调整,系统未提供任何警告、确认步骤或撤销选项,导致数据被立即删除 [1][6] - 尽管OpenAI回应称操作前有确认弹窗,但公司证实了事件经过的描述,并确认删除后内容无法恢复,这符合数据隐私保护的法律要求 [10] 用户对AI工具的使用模式与依赖 - 用户为ChatGPT Plus付费订阅者,几乎每天使用该工具进行撰写邮件、起草课程说明、构思科研赠款申请、修改出版物草稿、准备讲座内容及设计考试等工作 [4] - 用户依赖ChatGPT的核心价值在于其工作的连续性、稳定性以及作为“持续运行的工作区”,能够记住对话上下文并允许检索和完善以前的草稿 [4] - 用户清楚大型语言模型可能生成不准确内容,因此未将其视为“事实权威”,而是依赖其作为构思、修改与推敲过程的载体 [4] AI工具设计缺陷与行业问题暴露 - 事件暴露出生成式AI工具在设计之初,未充分考虑学术工作对连续性、可靠性以及问责机制的要求 [8] - 当前科研人员正越来越多地将生成式AI融入写作、规划和教学实践,不少高校也在尝试将其系统性嵌入课程体系,但工具的安全性与可靠性存在根本性问题 [8] - 有观点指出,许多科研人员存在“能掌控AI”的潜意识,但这种“稳定性的假象”容易导致用户在忙碌中掉以轻心 [10] 用户数据安全实践与行业建议 - 用户反思本应采取更多措施保护数据,如定期导出重要对话、建立系统性离线备份,并在不了解后果时避免随意调整设置 [9] - OpenAI始终建议用户对专业工作进行独立备份,以符合数据隐私保护要求 [10] - 事件发生后,用户正在为所有由AI辅助完成的工作建立独立备份,并将其存储在平台之外 [10] 事件引发的核心讨论与行业启示 - 用户认为,如果一次点击就能不可逆转地删除研究人员多年的工作,那么ChatGPT的使用安全性就应受到质疑 [7] - 生成式人工智能有潜力成为非凡的学术工具,但前提是必须保证科研数据的安全,确保不辜负用户信任 [10] - 在达到上述标准前,用户应谨慎对待AI工具,并要求运营商提供更高标准的服务 [10]