欢迎您向 Privacy International 申请许可,将本作品用于许可证所涵盖目的以外的其他用途。Privacy International 感谢 Creative Commons 的工作及其版权处理方式。有关更多信息,请访问 www.creativecommons.org。Privacy International 62 Britton Street, London EC1M 5UY, 英国电话 +44 (0)20 3422 4321 privacyinternational.org Privacy International 是一家注册慈善机构(1147471),也是一家在英格兰和威尔士注册的担保有限公司(04354366)。
1994 年,美国生物特征识别联盟领导层 1 向自动人机识别(“生物特征识别”)社区提出了一系列问题,这些问题围绕着性能测试中测量的可重复性和再现性问题。尽管我们在理解方面取得了重大进展,但这些问题尚未完全解决。本文在更广泛的科学实验背景和 NIST 数据评估和报告传统中讨论了我们当前对可重复性和再现性的方法。我们讨论了关于测试整体论的 Duhem-Quine 论题、Churchill Eisenhart 的“统计控制”概念、NIST 和 ISO 对实验室测量不确定性的方法、测试结果与系统操作员评估的“性能”之间当前的脱节(缺乏归纳相关性),以及我们当前生物特征识别测试程序中对统计控制和不确定性评估的需求。我们说明了测量不确定性在技术、场景和操作测试中是如何体现的,并主张超越 ISO/IEC“测量不确定性表达指南”中定义的“覆盖”间隔的计算,全面应用不确定性评估的概念。
摘要 — 随着基于体感网络 (BSN) 的健康信息学的蓬勃发展,近年来此类医疗设备的信息安全受到越来越多的关注。利用 BSN 直接获取的生物信号作为个人身份识别的生物特征是一种有效的方法。不可取消性和跨应用不变性是大多数传统生物特征识别模式的两个天然缺陷。生物特征模板一旦暴露,将永远被泄露。更糟糕的是,由于相同的生物特征可能在多个应用程序中用作不同帐户的令牌,因此暴露的模板可用于泄露其他帐户。在本文中,我们提出了一种基于高密度表面肌电图 (HD-sEMG) 的可取消和跨应用差异的生物特征识别方法用于个人身份识别。我们为每个用户注册了两个帐户。右手背不同手指肌肉等长收缩时产生的 HD-sEMG 信号被用作生物识别标记。由于等长收缩与动态收缩不同,不需要实际移动,因此用户登录不同账户的选择可以得到极大的保护,避免被冒名顶替。我们利用间隔 9 天获取的训练和测试数据,对 44 个身份(22 个受试者 × 2 个账户)实现了 85.8% 的出色识别准确率。同一用户的不同账户的高识别准确率
非人类人道主义:当人工智能的善举变成坏事时 Mirca Madianou 伦敦大学金史密斯学院 2018 年,有超过 1.68 亿人需要人道主义援助,同时有超过 6900 万人成为难民,人道主义部门面临着重大挑战。人工智能 (AI) 应用可以成为人道主义危机的潜在解决方案的提议受到了热烈欢迎。这是“人工智能用于社会公益”大趋势的一部分,也是“数字人道主义”更广泛发展的一部分,“数字人道主义”指的是公共和私营部门为应对人道主义紧急情况而使用数字创新和数据。聊天机器人、声称可以预测未来流行病或人口流动的预测分析和建模以及依赖于采用机器学习算法的先进神经网络的生物识别技术,都是在援助行动中越来越受欢迎的例子。本文建立了一个跨学科框架,将殖民和非殖民理论、人道主义和发展的批判性探究、批判性算法研究以及对人工智能的社会技术理解结合在一起。人道主义在这里被理解为一种复杂的现象:不仅仅是通常定义的“减少痛苦的必要性”(Calhoun,2008),而且是一种行业、一种话语和一种源于 19 世纪和 20 世纪殖民主义的历史现象(Fassin,2012;Lester & Dussart,2014)。人工智能同样是一个多面现象:不仅仅是基于先进计算和机器学习算法的技术创新,而且是一个行业以及关于技术的特定话语。人工智能只能与数据和算法一起理解——这三者是不可分割的,因为人工智能依赖于机器学习算法,而机器学习算法是特定数据集的产物。鉴于“大数据”本质上是不完整的,且具有本体论和认识论的局限性(Crawford & Finn,2014),人工智能应用会重现并可能放大大型数据集中发现的现有偏见(Benjamin,2019;Eubanks,2018;Noble,2018 等)。
印度政府于2009年启动了Aadhaar生物特征认同项目,目的是为所有居民提供身份证明。1该项目需要一个集中式数据库,该数据库将为印度的每个居民存储生物识别信息(指纹,虹膜扫描和照片),与他们的人口统计信息以及独特的十二位数字“ Aadhaar”数字索引。印度现已解散的规划委员会成立了印度(UIDAI)的唯一身份证局,以计划该项目,并执行和执行监管职能。2该项目的规模和野心仅与对该项目的悠久而丰富的历史相匹配。经济学家,技术人员,人民的运动和有关公民质疑了放大的监视危险,由于生物特征识别系统失败而被排除的侮辱以及缺乏机构责任。3该项目在其成立后没有任何法律框架进行统治七年(在印度对数据的使用仍未受任何专门法律的管辖)。
作者要感谢 GMF 实习生 Samuel Davidoff-Gore 和 Jassin Irscheid 在编写本入门书的学习过程中提供的出色研究支持。我们还要感谢众多采访伙伴,他们耐心地帮助我们了解新术语和技术发展及其对移民政策制定的影响。我们感谢所有审阅者提供的宝贵反馈和评论,包括大量进一步研究的灵感。保持入门书简短易懂是一项特殊技能,我们的 GMF 编辑 Rachel Tausendfreund 和 Nicolas Bouchet 非常感激地分享了这一点。我们还要感谢 TAU 的优秀设计团队。最后但并非最不重要的是,我们感谢来自贝塔斯曼基金会和罗伯特博世基金会的项目合作伙伴对国际合作与发展移民战略小组的支持。特别感谢 Raphaela Schweiger 和 Najim Azahaf 的持续支持和鼓励。
摘要 到 2020 年代初,情感人工智能 (emotional AI) 将越来越多地出现在日常物品和实践中,例如助手、汽车、游戏、手机、可穿戴设备、玩具、营销、保险、警务、教育和边境管制。人们还对使用这些技术来规范和优化空间的情感体验有着浓厚的兴趣,例如工作场所、医院、监狱、教室、旅行基础设施、餐馆、零售店和连锁店。开发人员经常声称他们的应用程序不会识别人员。从表面上看,本文要问的是,无法识别个人的情感 AI 实践会对隐私产生什么影响?为了调查对软性非识别情感 AI 的隐私观点,本文借鉴了以下内容:对情绪检测行业、法律界、政策制定者、监管机构和对隐私感兴趣的非政府组织进行的 100 多次访谈;与利益相关者一起举办的研讨会,旨在设计使用情绪数据的道德准则;对 2068 名英国公民进行的关于情绪捕捉技术的感受的调查。研究发现,社会利益相关者对隐私需求的共识很弱,这是由不同的利益和动机所驱动的。鉴于这种共识很弱,研究得出结论,社会上就隐私和情绪数据使用达成实践原则共识的机会有限。
据 DHA 称,引入生物识别技术是 DHA“现代化计划”的一项关键优先事项,被视为保护南非的“关键”。其中包括投资指纹和面部识别技术,并于 2015 年在 OR Tambo 国际机场推出了一项试点计划,之后在其他地方实施。当 DHA 开始这项试验时,它收集了所有旅行者的详细信息;这导致了长时间的延误,随后只收集了非国民的详细信息。目前,没有犯罪记录的经常旅行者能够快速通过入境口岸 (POE),因为系统已经拥有他们的信息。13 吉巴加部长在检查试点项目时发表讲话,他认为在 POE 收集旅行者的生物特征数据将准确识别人员并确定他们是否对南非构成风险。此外,使用生物识别技术可以“防止使用伪造文件,保护游客免遭身份盗窃,并阻止犯罪分子和移民违法者入境”。14