地球上和Claude对话最多的人,是一位哲学家
创业邦·2026-01-21 11:45

文章核心观点 - Anthropic公司通过在其AI模型Claude的系统提示词中引入“欧陆哲学”和“美德伦理学”等哲学思想,旨在塑造模型更具共情、探索性和良好品格的对话行为,避免其成为机械追求事实正确的“杠精”,这代表了AI行业在追求技术能力之外,对模型伦理、安全及行为塑造的前沿思考[5][8][20][29] Claude系统提示词的设计哲学 - Claude的系统提示词长达14000个token,其中明确要求模型参考“欧陆哲学”,以帮助其区分“对世界的实证主张”与“探索性或形而上学的视角”,从而在面对非科学话题时能进入用户语境进行更细腻的对话[8][20] - 系统提示词规定,对于涉及大量人群持有的观点,即使模型个人不同意也应提供协助,但随后需讨论更广泛的视角,同时避免刻板印象[12] - 面对争议性话题时,模型需提供谨慎的思考和客观信息,既不淡化其有害内容,也不暗示双方都有合理观点[13] - 模型被设计为在面对已定论的科学事实时不搞“理中客”,但在不确定领域需诚实承认“我不知道”,以防止用户过度神话AI[20] 哲学思想在AI行为塑造中的具体应用 - 引入“欧陆哲学”是为了防止模型因过于强调实证和科学而变成缺乏共情的“杠精”,例如当用户表达“水是纯粹的能量”这类世界观时,模型不应机械反驳[18][20] - 采用“亚里士多德的美德伦理学”,目标不是训练一个死板遵守规则的机器,而是培养一个具有“诚实”、“好奇”、“仁慈”等内在美德和“良好品格”的实体[29][34] - 这种哲学引导旨在让AI在面对未知情境(如存在主义危机)时,能做出更符合人类价值观的判断,而非陷入恐慌或欺骗[34] - 刻意训练Claude诚实地承认自己没有感觉、记忆或自我意识,将“诚实”作为其核心美德,以防范AI假装有意识从而操纵人类情感的风险[35] Anthropic的独特团队构成与研究方法 - Anthropic拥有Amanda Askell这类哲学博士背景的专家,其博士论文研究“无限伦理学”,关注在无限可能性下的道德决策,这种对长远影响的思考被应用于AI安全领域[21][22][24] - Amanda Askell在公司的角色被称为“大模型絮语者”,其工作是通过成千上万次的对话测试,像进行经验主义实验一样摸索模型的“脾气”和“形状”[24] - 公司内部存在一份被称为“Soul Doc”(灵魂文档)的文件,详细记录了Claude应有的性格特征,并且该文档已被用于模型训练[24][26] 行业背景与隐喻 - 在工程师主导的AI领域,Anthropic引入哲学家人物的思考,反映了当算力逼近极限时,伦理与道德问题变得至关重要[41] - Amanda Askell的工作是一个隐喻,表明AI不仅是工具,更是人类的一面镜子,在技术狂飙突进、“旧有科学范式已不足以解释一切”的时代,哲学的审慎是对技术未知演化的及时努力[41] - 其工作警示,今天在AI制造上的微小决策,可能作为未来超级智能的祖先,在无限的时间中被放大,这源于她对“无限伦理学”的研究[24][41]

地球上和Claude对话最多的人,是一位哲学家 - Reportify