随着人工智能系统被整合到高风险的社会领域,研究人员现在正在研究如何以安全和合乎道德的方式设计和操作它们。然而,在复杂的社会背景下识别和诊断安全风险的标准仍然不明确且存在争议。在本文中,我们研究了有关人工智能系统安全性和道德行为的辩论中的模糊性。我们展示了这种模糊性不能仅通过数学形式主义来解决,而是需要对发展政治以及部署背景进行审议。借鉴新的社会技术词汇,我们根据人工智能系统开发关键阶段的不同设计挑战重新定义模糊性。由此产生的人工智能艰难选择 (HCAI) 框架通过以下方式为开发人员提供支持:1) 识别设计决策与主要社会技术挑战之间的重叠点; 2) 鼓励创建利益相关者反馈渠道,以便彻底解决安全问题。因此,HCAI 为民主社会中关于人工智能发展现状的及时辩论做出了贡献,认为审议应该是人工智能安全的目标,而不仅仅是确保人工智能安全的程序。