• 任何个人数据处理的性质、范围、背景和目的,以及个人是否可能期望此类处理活动。 • 计划的处理有哪些替代方案(人工智能和非人工智能),选择这种方法的理由是什么,以及这种方法如何公平。 • 明确指出人工智能处理和自动化决策可能对个人产生影响的地方。 • 考虑个人和分配危害(例如,如果危害是由不允许学生在 GCSE 或 A Level 上选修某门科目决定造成的)和代表性危害(例如,选择一组学生进行不同的干预会导致性别或种族偏见)。 • 通过评估对个人权利和自由的益处与风险,以及/或是否有可能采取保障措施,确定人工智能工具的使用如何是相称和公平的。 • 分析任何可能对个人造成损害的算法偏见或不准确性。 • 如果使用人工智能取代人工干预,则需要对人类和算法的准确性进行比较,以证明在 DPIA 中使用人工智能工具的合理性。 • 如果做出自动化决策,个人将如何获知此信息以及他们如何挑战这些决策。 • 系统性能的相关变化或误差幅度,这可能会影响处理的公平性(包括统计准确性),并描述决策过程是否/何时有人参与。 • 任何安全威胁的潜在影响。 • 与利益相关者已完成或计划进行的磋商的摘要。除非有充分理由不进行这些磋商,否则建议进行这些磋商。咨询您处理其数据的个人可能是合适的,因为他们是重要的利益相关者。 • 处理是有意还是无意地处理特殊类别数据——在许多情况下,会处理非特殊类别数据,但推断出特殊类别数据(例如,邮政编码推断出特定种族)。 • 考虑个人的一般权利和自由,而不仅仅是在数据保护背景下,例如《2010 年平等法案》规定的权利。
主要关键词