未来,人工智能算法将越来越多地代替人类做出涉及人类社会偏好的决策。它们可以通过反复观察人类在社交中的行为来学习这些偏好。在这样的背景下,当人们都知道他们的行为会通过算法的训练产生各种外部性时,个体会调整其行为的自私性还是亲社会性?在一个在线实验中,我们让参与者在独裁者游戏中的选择训练算法。从而,它们对智能系统未来的决策产生了外部性,并影响了未来的参与者。我们表明,只有当个人承担未来算法选择伤害自己的风险时,他们才意识到自己的训练对未来一代的回报的影响,才会表现出更多的亲社会行为。在这种情况下,人工智能训练的外部性增加了当下平等决策的份额。