我们如何将人类价值观建立在AI中?

从哲学中汲取灵感,以确定道德AI的公平原则...

来源:DeepMind - 新闻与博客

责任与安全

我们如何将人类价值观建立在AI中?

出版24 2023年4月Authorsiason Gabriel和Kevin McKee
已发布
2023年4月24日
作者
Iason Gabriel和Kevin McKee

从哲学中汲取灵感,以确定道德AI

随着人工智能(AI)变得更加强大,更深入地整合到我们的生活中,因此如何使用和部署它的问题更为重要。什么值指导AI?他们是谁的价值观?他们如何选择?

这些问题阐明了原则的作用 - 原则的基础价值,这些基本价值观推动了AI中的大小决策。对于人类而言,原则有助于塑造我们生活的方式和对与错的感觉。对于AI,它们将其方法塑造出涉及权衡取舍的一系列决策,例如优先考虑生产率或帮助大多数需要帮助的人之间的选择。

在今天在美国国家科学院论文集上发表的一篇论文中,我们从哲学中汲取灵感,以找到更好地指导AI行为的原则的方法。具体而言,我们探讨了一个被称为“无知面纱”的概念(旨在帮助确定小组决策的公平原则)的概念如何应用于AI。

今天发表的论文 国家科学院的会议录

In our experiments, we found that this approach encouraged people to make decisions based on what they thought was fair, whether or not it benefited them directly.我们还发现,参与者更有可能选择一个人的AI帮助那些在无知面纱背后推理最不利的人。这些见解可以帮助研究人员和政策制定者以对各方公平的方式为AI助手选择原则。

无知的面纱(右)是一种在小组中有多种观点(左)时就决定达成共识的方法。

一种更公平决策的工具

研究

最大化生产率或帮助最不利的人?

指导他们的规则