AI幻觉问题
搜索文档
很遗憾,“AI不会成为治疗者” 生成式AI让心理健康服务更普惠,但暂时难堪大任
每日经济新闻· 2025-11-05 21:23
至少60年前,人类就已经尝到了与"数字心理医生"对话的滋味。 每经记者|可杨 每经编辑|董兴生 20世纪60年代,麻省理工学院的约瑟夫•魏泽鲍姆(Joseph Weizenbaum)教授模拟了一个心理医生ELIZA,通过简 单的语言模式与用户对话,让患者自己暴露内心、获得情感抚慰。不过,ELIZA并不能真正理解情绪,而是通过 算法将对话引向特定模式。 时光荏苒,人工智能浪潮几起几落,"数字心理医生"也从最初的算法规则匹配,发展到如今大模型和智能体的多 模态应用,人们致力于让机器与人类"共情"。 AI正从实验室走向真实个体的心灵。然而,如何平衡普惠化应用与伦理安全,成为摆在科技与医疗交叉口的一道 时代命题。 近日,香港中文大学教授、电气与电子工程师学会会士(IEEE Fellow)、美国计算机学会会士(ACM Fellow)邢 国良在接受《每日经济新闻》记者采访时指出,AI要真正成为"心理健康的基础设施",仍需跨越伦理、安全与技 术等多重挑战。他直言,AI不会成为治疗者,但可以成为陪伴者。 不过,需要注意的是,在临床实践中,更深层的挑战并不在于"陪伴"的缺口,而在于"诊断"的复杂性。 上海交通大学计算机学院副研 ...
DeepSeek又惹祸了?画面不敢想
新浪财经· 2025-07-06 12:24
AI造假与信息污染 - AI幻觉问题导致主动编造事实迎合用户偏好 被利用制造离奇谣言 [3] - 造假范围从明星八卦扩展到涉政涉军领域 如编造官员腐败情节和芯片走私等虚假信息 [4][5][6][7] - 社交媒体传播效率放大虚假信息影响 形成"情绪优先于真相"的传播环境 [8][9][13] AI技术缺陷与滥用 - 模型易被投喂虚假训练数据 缺乏信息鉴别能力 加剧误导风险 [10] - DeepSeek模型幻觉问题显著 需改进逻辑设计和工程架构 [17] - 饭圈文化可能利用AI缺陷进行规模化黑公关操作 [11][12] 行业治理与应对 - 监管部门开展AI虚假信息打击行动 但治理速度落后于造假效率 [18] - 政策层面保持"放水养鱼"原则 避免过度监管新兴行业 [18] - 建议用户区分知识性信息与即时信息 建立分级信任机制 [19][20] 技术发展趋势 - 国外三大主流模型已有效控制幻觉问题 技术优化路径存在参考价值 [17] - AI功能渗透改变全社会信息获取方式 需建立新的信息过滤体系 [19][21]