摘要 到 2020 年代初,情感人工智能 (emotional AI) 将越来越多地出现在日常物品和实践中,例如助手、汽车、游戏、手机、可穿戴设备、玩具、营销、保险、警务、教育和边境管制。人们还对使用这些技术来规范和优化空间的情感体验有着浓厚的兴趣,例如工作场所、医院、监狱、教室、旅行基础设施、餐馆、零售店和连锁店。开发人员经常声称他们的应用程序不会识别人员。从表面上看,本文要问的是,无法识别个人的情感 AI 实践会对隐私产生什么影响?为了调查对软性非识别情感 AI 的隐私观点,本文借鉴了以下内容:对情绪检测行业、法律界、政策制定者、监管机构和对隐私感兴趣的非政府组织进行的 100 多次访谈;与利益相关者一起举办的研讨会,旨在设计使用情绪数据的道德准则;对 2068 名英国公民进行的关于情绪捕捉技术的感受的调查。研究发现,社会利益相关者对隐私需求的共识很弱,这是由不同的利益和动机所驱动的。鉴于这种共识很弱,研究得出结论,社会上就隐私和情绪数据使用达成实践原则共识的机会有限。