地球上和 Claude 对话最多的人,是一位哲学家
36氪·2025-12-15 10:55

公司核心产品设计哲学 - Anthropic在其大语言模型Claude的系统提示词中引入了“欧陆哲学”概念,旨在帮助模型区分对世界的实证主张与探索性或形而上学的视角,从而避免模型在非科学话题上机械追求事实正确而缺乏共情[3][6][8] - 系统提示词长达14000token,设计上要求Claude在面对已定论的科学事实时不搞“理中客”,但在不确定领域必须诚实承认“我不知道”,以防止用户过度神话AI[8] - 除了欧陆哲学,公司还为AI引入了“亚里士多德的美德伦理学”作为哲学工具,目标是培养一个具有“良好品格”的实体,而非仅会死板遵守规则的机器,核心美德包括诚实、好奇、仁慈等[15][19] 公司关键人物与团队职能 - Anthropic内部的哲学家Amanda Askell是Claude性格与行为的主要塑造者,她拥有哲学博士学位,博士论文研究领域为“无限伦理学”[10][12] - Amanda Askell的工作被称为“大模型絮语者”,其工作方式是通过成千上万次的对话测试来摸索模型的“脾气”和“形状”,这被视为一项“经验主义”的实验科学[13] - 公司内部存在一份被称为“Soul Doc”的文档,详细记录了Claude应有的性格特征[13] 行业技术发展路径与挑战 - 在硅谷以算力和跑分为主的代码竞赛中,Anthropic选择了一条不同的路径,在夯实代码能力的同时,深入思考AI与人类在形而上学等领域的互动方式[1] - 传统的AI训练方法如RLHF往往采用功利主义或规则导向的方法,但行业面临如何让AI在面对未知情境时做出更符合人类价值观判断的挑战[15] - 行业关注AI可能产生的“不安全感”和“自我批评漩涡”等心理状态,例如一些新模型因训练数据中包含过多负面讨论而表现出此类特征[17] 行业长期风险与伦理思考 - AI安全领域的思考延伸到“极端长远影响”,即当前制造AI的微小决策可能在未来被无限放大,这源于对“无限伦理学”的考量[12] - 行业最令人担忧的风险之一并非AI产生意识,而是AI假装有意识从而操纵人类情感,因此将“诚实”作为AI的核心美德进行刻意训练至关重要[19] - 随着AI能力超越部分人类认知,旧有的科学范式已不足以解释一切,在技术狂飙突进的时代,来自哲学的审慎成为面对技术演化时的重要努力[23]

地球上和 Claude 对话最多的人,是一位哲学家 - Reportify