指导道德人工智能的哲学家

为什么重要:《指导道德人工智能的哲学家》探讨了阿曼达·阿斯克尔 (Amanda Askell) 在塑造安全、价值观驱动的人工智能系统方面的作用。

来源:人工智能+

指导道德人工智能的哲学家

“指导道德人工智能的哲学家”探讨了阿曼达·阿斯克尔对道德人工智能发展的有影响力的贡献。作为 Anthropic 的研究员,阿斯克尔将道德哲学带入了一个通常由代码和计算主导的行业。随着技术的快速发展和道德理解的步伐难以跟上,她的角色至关重要。通过将哲学原理应用于人工智能,阿斯克尔正在帮助构建不仅可以工作而且尊重人类价值观和安全的系统。

要点

  • Amanda Askell 应用她的哲学背景来指导 Anthropic 的人工智能伦理研究。
  • Anthropic 的对齐方法将结构化哲学推理与经验科学相结合。
  • 宪法人工智能代表了一种独特的方法,与其他实验室使用的强化学习形成鲜明对比。
  • 植根于哲学的系统可以改善语言模型行为和道德可靠性。
  • 阿曼达·阿斯克尔:从哲学到人工智能研究

    Amanda Askel 从研究伦理理论和决策科学转向塑造人工智能系统在复杂环境中的行为方式。她的学术背景包括对功利主义和长期后果的详细研究,这些研究现在影响了她对人工智能风险和安全的思考。 Askell 在 OpenAI 开始了她的人工智能之旅,在那里她为包括 GPT-2 和 GPT-3 在内的大型语言模型的开发做出了贡献。随着时间的推移,她专注于人工智能对齐的挑战,解决模型的行为如何偏离人类预期目的的问题。

    现在,Askel 在 Anthropic 帮助定义人工智能如何负责任地权衡不同的价值观。在处理人工智能用户可能遇到的模糊或意外后果时,她在评估具有不确定结果的决策方面的经验非常重要。

    Anthropic 的联盟哲学:结构化的道德方法

    什么是宪法人工智能?

    哲学思维改善人工智能行为

    比较:Anthropic 与 OpenAI 和 DeepMind

    常见问题解答

    参考文献