详细内容或原文请订阅后点击阅览
我们如何将人类价值观建立在AI中?
从哲学中汲取灵感,以确定道德AI的公平原则...
来源:DeepMind - 新闻与博客责任与安全
我们如何将人类价值观建立在AI中?
- 出版24 2023年4月Authorsiason Gabriel和Kevin McKee
从哲学中汲取灵感,以确定道德AI
随着人工智能(AI)变得更加强大,更深入地整合到我们的生活中,因此如何使用和部署它的问题更为重要。什么值指导AI?他们是谁的价值观?他们如何选择?
这些问题阐明了原则的作用 - 原则的基础价值,这些基本价值观推动了AI中的大小决策。对于人类而言,原则有助于塑造我们生活的方式和对与错的感觉。对于AI,它们将其方法塑造出涉及权衡取舍的一系列决策,例如优先考虑生产率或帮助大多数需要帮助的人之间的选择。
在今天在美国国家科学院论文集上发表的一篇论文中,我们从哲学中汲取灵感,以找到更好地指导AI行为的原则的方法。具体而言,我们探讨了一个被称为“无知面纱”的概念(旨在帮助确定小组决策的公平原则)的概念如何应用于AI。
今天发表的论文 国家科学院的会议录In our experiments, we found that this approach encouraged people to make decisions based on what they thought was fair, whether or not it benefited them directly.我们还发现,参与者更有可能选择一个人的AI帮助那些在无知面纱背后推理最不利的人。这些见解可以帮助研究人员和政策制定者以对各方公平的方式为AI助手选择原则。