已经出现了大量使用人工智能 (AI) 和机器学习来预测个人与 covid-19 相关风险的提案、原型和模型。例如,在美国,退伍军人事务部使用个性化风险评分为 covid-19 患者分配医疗资源,1 监狱则试图通过处理囚犯的电话来检测症状。2 进一步的工具,例如个人脆弱性预测 3 和基于语音的感染检测 4 即将问世。但将人工智能用于此类目的引发了合法性问题。当州或联邦政府试图使用人工智能模型来预测个人感染 covid-19 的风险时,关键的法律问题最终将取决于这些模型的有效性以及它们对法律利益的负担有多大。我们重点关注美国法律下最突出的两个法律问题:隐私和歧视。基于隐私或歧视的挑战可能出现在各种情况下,包括对监管决定的挑战、侵权行为或健康隐私法下的诉讼。我们认为,平衡利益与负担的基本需求贯穿于