围绕人工智能发展的绝大多数讨论都认为,与“人类价值观”相一致的屈从的“道德”模型是普遍有益的——简而言之,好的人工智能是谄媚的人工智能。我们探索了谄媚范式的阴影,我们将这种设计空间称为对抗性人工智能:令人不快、粗鲁、打断、对抗、挑战等人工智能系统——嵌入了相反的行为或价值观。对抗性人工智能系统远非“坏的”或“不道德的”,我们考虑的是,对抗性人工智能系统有时是否可能给用户带来好处,比如迫使用户面对他们的假设,建立适应力,或发展更健康的关系界限。通过形成性探索和推测性设计研讨会(参与者设计了采用对抗性的虚构人工智能技术),我们为对抗性人工智能布局了一个设计空间,阐明了潜在的好处、设计技术和将对抗元素嵌入用户体验的方法。最后,我们讨论了该领域的诸多伦理挑战,并确定了对抗性人工智能负责任设计的三个维度——同意、背景和框架。
主要关键词