在越来越多的情况下,人工智能算法必须模拟人类的(社会)偏好,并越来越多地代表人类做出决策。它们可以通过反复观察社交活动中的人类行为来学习这些偏好。在这样的背景下,当人们都知道他们的行为会通过算法的训练产生各种外部性时,个人会调整其行为的自私性还是亲社会性?在一个在线实验中,我们让参与者在独裁者游戏中的选择来训练算法。因此,它们对智能系统未来的决策产生了外部性,从而影响了未来的参与者。我们表明,那些意识到他们的训练对未来一代的回报的影响的人会表现得更加亲社会,但前提是他们承担着未来算法选择伤害自己的风险。在这种情况下,人工智能训练的外部性会导致当前平等决策的比例显著提高。