Loading...
机构名称:
¥ 4.0

摘要:人类塑造了人工智能算法的行为。一种机制是这些系统通过被动观察人类行为和我们不断生成的数据而接受的训练。在一项包含一系列独裁者游戏的实验室实验中,我们让参与者的选择训练算法。因此,它们对智能系统的未来决策产生了外部性,从而影响了未来的参与者。我们测试了有关训练人工智能的信息如何影响人类行为的亲社会性和自私性。我们发现,让个人意识到他们的训练对后代福祉的影响会改变行为,但只有当个人承担未来算法选择伤害自己的风险时才会发生。只有在这种情况下,人工智能训练的外部性才会在当下引​​发更高比例的平等决策。关键词:人工智能、道德、亲社会性、世代、外部性 JEL 代码:C49、C91、D10、D62、D63、O33

人工智能、伦理与代际责任

人工智能、伦理与代际责任PDF文件第1页

人工智能、伦理与代际责任PDF文件第2页

人工智能、伦理与代际责任PDF文件第3页

人工智能、伦理与代际责任PDF文件第4页

人工智能、伦理与代际责任PDF文件第5页