摘要 在本文中,我们讨论了是否应使用人工智能来预防社交媒体数据的自杀。我们专注于能够根据社交媒体平台上的帖子识别有自杀意念的人的算法,并调查像 Facebook 这样的私营公司是否有理由使用这些算法。为了弄清情况是否如此,我们首先提供两个基于人工智能的社交媒体自杀预防方法的例子。随后,我们将自杀预防定义为一个仁慈问题,开发两个虚构案例来探讨仁慈原则的范围,并将学到的经验教训应用于 Facebook 使用人工智能预防自杀。我们表明 Facebook 既没有履行仁慈的义务,也没有表现出功绩。这种见解引出了我们提出的一个普遍问题:谁有权获得帮助。我们得出结论,如果像 Facebook 这样的私营公司遵守我们从仁慈和自主性中得出的特定规则,它们可以在自杀预防方面发挥重要作用,这些规则是生物医学伦理的核心原则。同时,公共机构有义务为基于人工智能的自杀预防工具创造适当的框架条件。作为一种展望,我们描述了公共和私人机构之间的合作如何为打击自杀做出重要贡献,并以这种方式将仁慈原则付诸实践。