Loading...
机构名称:
¥ 4.0

在越来越多的情况下,人工智能算法必须模拟人类的(社会)偏好,并越来越多地代表人类做出决策。它们可以通过反复观察社交活动中的人类行为来学习这些偏好。在这样的背景下,当人们都知道他们的行为会通过算法的训练产生各种外部性时,个人会调整其行为的自私性还是亲社会性?在一个在线实验中,我们让参与者在独裁者游戏中的选择来训练算法。因此,它们对智能系统未来的决策产生了外部性,从而影响了未来的参与者。我们表明,那些意识到他们的训练对未来一代的回报的影响的人会表现得更加亲社会,但前提是他们承担着未来算法选择伤害自己的风险。在这种情况下,人工智能训练的外部性会导致当前平等决策的比例显著提高。

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578PDF文件第1页

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578PDF文件第2页

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578PDF文件第3页

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578PDF文件第4页

建议引用:Klockmann, Victor;von Schenk, Alicia;Villeval, Marie-Claire (2022):人工智能、伦理与代际责任,SAFE 工作论文,第 335 号,莱布尼茨金融研究所 SAFE,法兰克福,https://doi.org/10.2139/ssrn.4002578PDF文件第5页

相关文件推荐