Fussey教授和Murray博士将提供独立的学术建议来支持审查,包括有关警察面部搜索技术的有效性和准确性的已发表信息,除了包括更广泛的偏见(包括偏见)外,已知的FRT使用的人权和伦理问题。其他考虑因素包括监督的作用,将来可能使用随着技术的发展的影响,在英国政策背景下的潜在苏格兰特定考虑及其与其他国际标准的关系(例如EU法,欧洲人权裁决和联合国政策法院)。 也可以提供有关上述问题的简短讨论文章。 他们的角色是独立咨询能力,因此既不是认可,也不一定反映在报告结果中。EU法,欧洲人权裁决和联合国政策法院)。也可以提供有关上述问题的简短讨论文章。他们的角色是独立咨询能力,因此既不是认可,也不一定反映在报告结果中。
(2) 从分析角度来说,该小组借鉴了政策分析家和科技学者迄今为止罕见的工作成果,他们专注于超越“法律条文”的人工智能治理具体实践,例如使用民族志方法生成数据(即在“实地”预测警务的情况下:Sandhu 和 Fussey 2021;Selten 等人 2023)。世界各地的公共当局如何在日常运作中使用聊天机器人或算法评分系统,在这样做时如何具体化现有的人工智能政策(Liu、Lin 和 Chen 2019)?监管沙盒或标准化论坛中的参与者如何争夺“负责任的人工智能”的含义?这种政策具体化在不同空间如何变化,为什么会这样,对全球人工智能治理有何影响?大型科技公司如何在日益参与人道主义领域的过程中利用边缘化社区的数据财富?
