我们如何将人类价值观融入 AI?

从哲学中汲取灵感,确定符合道德的 AI 的公平原则...

来源:DeepMind - 新闻与博客

责任与安全

我们如何将人类价值观融入人工智能?

已发布2023 年 4 月 24 日作者Iason Gabriel 和 Kevin McKee
已发布
2023 年 4 月 24 日
作者
Iason Gabriel 和 Kevin McKee

Iason Gabriel 和 Kevin McKee

从哲学中汲取灵感,确定道德人工智能的公平原则

随着人工智能 (AI) 变得越来越强大,越来越深入地融入我们的生活,如何使用和部署它的问题就变得更加重要。什么价值观指导着人工智能?这些价值观是谁的?它们是如何被选择的?

这些问题揭示了原则所扮演的角色——驱动人工智能中大大小小的决策的基本价值观。对于人类来说,原则有助于塑造我们的生活方式和是非观念。对于人工智能来说,它们塑造了人工智能处理一系列涉及权衡的决策的方法,例如在优先考虑生产力和帮助最需要帮助的人之间做出选择。

在今天发表在《美国国家科学院院刊》上的一篇论文中,我们从哲学中汲取灵感,寻找更好地识别指导人工智能行为的原则的方法。具体来说,我们探索了如何将一个被称为“无知之幕”的概念——一个旨在帮助确定公平的集体决策原则的思想实验——应用于人工智能。

今天发表的论文 美国国家科学院院刊

在我们的实验中,我们发现这种方法鼓励人们根据他们认为公平的原则做出决定,无论这是否直接使他们受益。我们还发现,当参与者在无知之幕背后进行推理时,他们更有可能选择一种能够帮助那些最弱势群体的人工智能。这些见解可以帮助研究人员和政策制定者以对各方公平的方式选择人工智能助手的原则。

无知之幕(右)是一种在群体意见不同(左)时就决策达成共识的方法。

更公平决策的工具

研究

更公平的人工智能原则