AI精神分裂

搜索文档
微软AI主管苏莱曼:应警示“AI精神分裂”引发的社会风险
环球网· 2025-08-26 19:47
在展望AI潜力的同时,苏莱曼对当前社会对LLM的认知偏差表达强烈担忧。他指出,越来越多人(包 括无心理疾病者)开始将大语言模型视为具有意识的实体,甚至为其争取"权利""福利"乃至"公民身 份"。他将这一现象定义为"AI精神分裂"(AI Schizophrenia)——即人类在情感上过度拟人化AI,却忽 视其本质为概率计算工具的矛盾心理。 "当人们为ChatGPT的'拒绝回答'感到愤怒,或因AI生成的虚假信息陷入抑郁时,这不仅是技术问题,更 是社会心理危机。"苏莱曼警告称,这种认知错位可能削弱人类对真实人际关系的投入,甚至导致责任 归属的模糊化(例如将决策失误归咎于AI而非使用者)。 资料显示,穆斯塔法·苏莱曼为DeepMind联合创始人之一,2022年加入微软领导AI部门,主导了 Copilot、Phi-3等标志性项目的开发。(青山) 苏莱曼强调微软当前聚焦于将AI工具(如Copilot)打造为"负责任的技术",旨在提升人类创造力而非取 代人类。他提出,理想中的AI应具备"人性温度":既能深度融入现实世界,又能通过增强人类协作能 力,促进社会信任与理解。 "真正的挑战在于,如何让AI在服务人类的同时,避免异化 ...
微软AI主管:AI应以人为本,设“安全围栏”防模仿人类
搜狐财经· 2025-08-25 22:23
微软人工智能部门的领航者穆斯塔法·苏莱曼,在近期的一篇博文中深刻探讨了人工智能的现状与未来愿景。他坦诚地分享了个人的使命——利用科技让世 界变得更加美好,创造出既安全又对人类有益的人工智能。 苏莱曼强调,微软当下的核心目标是借助AI的力量赋能人类,特别是将Copilot打造成为一款负责任的技术工具,旨在激发和提升人类的创造力。他梦想中 的AI,是能够深刻理解人性,与现实世界紧密相连,促进人与人之间的信任与理解。 然而,这一愿景的实现面临着诸多挑战。苏莱曼指出,当前社会上存在一种令人担忧的趋势:越来越多的人将大型语言模型(LLM)视为具有意识的实 体,甚至为其"权利"、"福利"乃至"公民身份"发声。这种现象不仅在心理疾病患者中可见,也在健康人群中发生,他形象地将其比喻为"AI精神分裂"。 针对这一现状,苏莱曼呼吁AI行业应围绕"以人为本"的价值观,谨慎前行。他认为,AI不应模仿人类,而应作为辅助工具,服务于人类的需求。为了保障人 类的安全,AI业界亟需设立"安全围栏",明确界定哪些领域是AI不应涉足的。只有这样,AI才能在制度的框架下健康发展,为世界带来真正的价值。 外媒WindowsReport也对苏莱曼的担 ...