学者和行业从业者一直在争论如何最好地制定道德人工智能 (AI) 干预措施。此类干预措施建议构建和使用 AI 工具的公司改变其技术实践,但未能解决有关 AI 开发的组织和制度背景的关键问题。在本文中,我们围绕“AI”作为一个话语概念的生命和组织实践在一个研究不足的领域——新兴 AI 初创企业——进行了描述性研究,重点关注企业家面临的组织外压力。利用组织如何变化的理论视角,我们对 23 位在早期 AI 初创企业工作的企业家进行了半结构化访谈。我们发现初创企业中的参与者既顺从又抵制制度压力。我们的分析发现 AI 企业家面临的一个核心矛盾:他们往往重视科学的完整性和方法的严谨性;然而,有影响力的外部利益相关者要么缺乏技术知识来理解企业家对严谨性的重视,要么更关注业务优先事项。结果,企业家采用了与他们的科学价值观背道而驰的关于人工智能的炒作营销信息,但试图在内部保持其合法性。制度压力和组织约束也影响了企业家的建模实践及其对实际或即将出台的监管的反应。最后,我们讨论了如何利用这些压力作为有效干预措施的杠杆,以建立道德人工智能。