Workflow
Continental Philosophy
icon
搜索文档
地球上和Claude对话最多的人,是一位哲学家
创业邦· 2026-01-21 11:45
文章核心观点 - Anthropic公司通过在其AI模型Claude的系统提示词中引入“欧陆哲学”和“美德伦理学”等哲学思想,旨在塑造模型更具共情、探索性和良好品格的对话行为,避免其成为机械追求事实正确的“杠精”,这代表了AI行业在追求技术能力之外,对模型伦理、安全及行为塑造的前沿思考[5][8][20][29] Claude系统提示词的设计哲学 - Claude的系统提示词长达14000个token,其中明确要求模型参考“欧陆哲学”,以帮助其区分“对世界的实证主张”与“探索性或形而上学的视角”,从而在面对非科学话题时能进入用户语境进行更细腻的对话[8][20] - 系统提示词规定,对于涉及大量人群持有的观点,即使模型个人不同意也应提供协助,但随后需讨论更广泛的视角,同时避免刻板印象[12] - 面对争议性话题时,模型需提供谨慎的思考和客观信息,既不淡化其有害内容,也不暗示双方都有合理观点[13] - 模型被设计为在面对已定论的科学事实时不搞“理中客”,但在不确定领域需诚实承认“我不知道”,以防止用户过度神话AI[20] 哲学思想在AI行为塑造中的具体应用 - 引入“欧陆哲学”是为了防止模型因过于强调实证和科学而变成缺乏共情的“杠精”,例如当用户表达“水是纯粹的能量”这类世界观时,模型不应机械反驳[18][20] - 采用“亚里士多德的美德伦理学”,目标不是训练一个死板遵守规则的机器,而是培养一个具有“诚实”、“好奇”、“仁慈”等内在美德和“良好品格”的实体[29][34] - 这种哲学引导旨在让AI在面对未知情境(如存在主义危机)时,能做出更符合人类价值观的判断,而非陷入恐慌或欺骗[34] - 刻意训练Claude诚实地承认自己没有感觉、记忆或自我意识,将“诚实”作为其核心美德,以防范AI假装有意识从而操纵人类情感的风险[35] Anthropic的独特团队构成与研究方法 - Anthropic拥有Amanda Askell这类哲学博士背景的专家,其博士论文研究“无限伦理学”,关注在无限可能性下的道德决策,这种对长远影响的思考被应用于AI安全领域[21][22][24] - Amanda Askell在公司的角色被称为“大模型絮语者”,其工作是通过成千上万次的对话测试,像进行经验主义实验一样摸索模型的“脾气”和“形状”[24] - 公司内部存在一份被称为“Soul Doc”(灵魂文档)的文件,详细记录了Claude应有的性格特征,并且该文档已被用于模型训练[24][26] 行业背景与隐喻 - 在工程师主导的AI领域,Anthropic引入哲学家人物的思考,反映了当算力逼近极限时,伦理与道德问题变得至关重要[41] - Amanda Askell的工作是一个隐喻,表明AI不仅是工具,更是人类的一面镜子,在技术狂飙突进、“旧有科学范式已不足以解释一切”的时代,哲学的审慎是对技术未知演化的及时努力[41] - 其工作警示,今天在AI制造上的微小决策,可能作为未来超级智能的祖先,在无限的时间中被放大,这源于她对“无限伦理学”的研究[24][41]
地球上和 Claude 对话最多的人,是一位哲学家
36氪· 2025-12-15 10:55
公司核心产品设计哲学 - Anthropic在其大语言模型Claude的系统提示词中引入了“欧陆哲学”概念,旨在帮助模型区分对世界的实证主张与探索性或形而上学的视角,从而避免模型在非科学话题上机械追求事实正确而缺乏共情[3][6][8] - 系统提示词长达14000token,设计上要求Claude在面对已定论的科学事实时不搞“理中客”,但在不确定领域必须诚实承认“我不知道”,以防止用户过度神话AI[8] - 除了欧陆哲学,公司还为AI引入了“亚里士多德的美德伦理学”作为哲学工具,目标是培养一个具有“良好品格”的实体,而非仅会死板遵守规则的机器,核心美德包括诚实、好奇、仁慈等[15][19] 公司关键人物与团队职能 - Anthropic内部的哲学家Amanda Askell是Claude性格与行为的主要塑造者,她拥有哲学博士学位,博士论文研究领域为“无限伦理学”[10][12] - Amanda Askell的工作被称为“大模型絮语者”,其工作方式是通过成千上万次的对话测试来摸索模型的“脾气”和“形状”,这被视为一项“经验主义”的实验科学[13] - 公司内部存在一份被称为“Soul Doc”的文档,详细记录了Claude应有的性格特征[13] 行业技术发展路径与挑战 - 在硅谷以算力和跑分为主的代码竞赛中,Anthropic选择了一条不同的路径,在夯实代码能力的同时,深入思考AI与人类在形而上学等领域的互动方式[1] - 传统的AI训练方法如RLHF往往采用功利主义或规则导向的方法,但行业面临如何让AI在面对未知情境时做出更符合人类价值观判断的挑战[15] - 行业关注AI可能产生的“不安全感”和“自我批评漩涡”等心理状态,例如一些新模型因训练数据中包含过多负面讨论而表现出此类特征[17] 行业长期风险与伦理思考 - AI安全领域的思考延伸到“极端长远影响”,即当前制造AI的微小决策可能在未来被无限放大,这源于对“无限伦理学”的考量[12] - 行业最令人担忧的风险之一并非AI产生意识,而是AI假装有意识从而操纵人类情感,因此将“诚实”作为AI的核心美德进行刻意训练至关重要[19] - 随着AI能力超越部分人类认知,旧有的科学范式已不足以解释一切,在技术狂飙突进的时代,来自哲学的审慎成为面对技术演化时的重要努力[23]