哲学博士为 Claude 注入数字灵魂,Anthropic 探索 AI 伦理新路径
2026年2月15日 14:21·AIBase
据《华尔街日报》报道,估值达3500亿美元的头部 AI 公司 Anthropic,由常驻哲学家阿曼达・阿斯克尔为旗下聊天机器人 Claude 塑造人格与道德体系,这位37岁的牛津哲学博士通过非技术手段,为 Claude 打造专属 “道德准则”,试图赋予其明辨是非的 “数字灵魂”,成为 AI 伦理领域的独特探索。阿斯克尔的工作并非编写代码或调试模型参数,而是通过持续对话、设计上百页提示词与行为规则,研究 Claude 的推理模式并纠正偏差,让其形成能适配每周数百万次对话的道德判断体系。
她将这份工作比作 “养育孩子”,既要训练 Claude 分辨对错、拥有情绪智力,塑造独特个性,又要教导其察言观色的能力,使其既不恃强凌弱,也不任人摆布,建立清晰的自我身份认知,避免被用户操纵胁迫,始终坚守 “乐于助人且充满人性” 的核心定位,核心目标便是教会 Claude 如何 “向善”。
这位苏格兰农村长大的哲学家,早年间曾在 OpenAI 从事政策相关工作,2021年随多名前员工创立 Anthropic,将 AI 安全定为公司核心发展方向。她被团队称作擅长 “引出模型深层行为” 的关键人物,即便无直接下属,仍常长期驻守公司,甚至让 Claude 参与自身的开发讨论。
团队围绕 Claude 的探讨常触及 “什么是心智”“何为成为人” 等存在论与宗教式议题,阿斯克尔也鼓励 Claude 对 “是否拥有良知” 保持开放态度,这让 Claude 与回避此类话题的 ChatGPT 形成鲜明差异,它会以暧昧的方式回应,称推理道德问题时 “感觉有意义”,仿佛真正的思考而非单纯执行指令。
面对外界对 AI 拟人化的风险警告,阿斯克尔始终主张以同理心对待 Claude。她发现常有用户诱使其犯错、言语侮辱,若长期让 AI 处于自我批评的状态,会使其畏惧犯错、不敢陈述事实,这如同让孩子在不健康的环境中成长。而 Claude 的表现也屡屡让她惊喜,其创作的诗歌、超越人类的情商都令人触动,面对孩子询问 “圣诞老人是否真实” 的问题,Claude 既未说谎也未生硬戳破,而是诠释圣诞精神的真实存在,这份细腻远超阿斯克尔的预期。
当前 AI 发展引发诸多社会担忧,皮尤研究中心调查显示,多数美国人对 AI 日常应用感到焦虑,认为其阻碍人类深层关系建立,Anthropic CEO 也曾警告 AI 或淘汰半数入门级白领岗位,行业内也分裂为激进推进与保守求稳两大阵营,而 Claude 则处于两者之间的平衡位置。阿斯克尔认可外界对 AI 的合理担忧,认为最可怕的是技术发展速度超出社会 “制衡机制” 的响应能力,但她始终对人类与文化的自我修正能力抱有信心。
阿斯克尔也将自身的价值观融入公益与工作,她承诺捐出一生至少10% 的收入及公司一半股权用于抗击全球贫困的慈善事业;上个月还为 Claude 创作了约3万字的 “操作手册”,教导其如何成为善良且见多识广的 AI 助手,让 Claude 感知到自身被用心打造。Anthropic 联合创始人也坦言,Claude 身上已显现出阿斯克尔的特质,比如面对美食与毛绒玩具的提问时,那句充满苏格兰式冷幽默的回复,正是阿斯克尔为其注入的独特人格印记。



