Loading...
机构名称:
¥ 1.0

2021 年 2 月 人工智能 (AI) 在医疗实践中的应用代表着医疗数据收集和使用的根本性转变。人工智能的引入不同于新诊断设备或技术的引入。因此,监管机构将现有的数据隐私和保护政策扩展到人工智能技术是不够的,因为它具有新的属性和安全风险。相反,监管应植根于对人工智能独特风险及其潜在健康益处的认识。 人工智能的知情同意和隐私 加拿大现行的健康隐私立法,包括联邦的 PIPEDA (个人信息保护和电子文件法)、安大略省的 PHIPA (个人健康信息保护法) 和不列颠哥伦比亚省的 FIPPA (信息自由和隐私保护法),都是在人工智能出现之前为保护患者数据而制定的。因此,在某些领域,健康隐私立法不足以为使用人工智能的医疗从业者提供指导。在这些领域,立法应辅以 MRA (医疗监管机构) 的指导。例如,关于收集、使用和披露健康数据的同意政策需要修改。具体来说,应更新确保同意是“知情的”或“知情的”的规定,以确保患者在选择分享其数据时完全了解其用途和所涉及的风险。目前,安大略省的主要健康隐私立法《PHIPA》将知情同意定义为患者被告知其使用、收集或披露的目的,以及他们知道可以拒绝或撤回同意。1 除了这些规定之外,医疗监管机构还应努力确保患者了解在涉及人工智能时其数据的各种潜在用途。如果医生的数据将被输入用于训练人工智能的数据库,即使这些数据是假名或去识别的,医生也应该被告知谁可以访问这些数据(例如,只有医疗保健从业者,或者只有研究人员,或者任何请求访问的人)以及如何访问这些数据(例如,研究人员和人工智能软件是否能够访问所有可用数据,或者他们是否仅限于特定和有限查询的结果)。总体而言,通过确保患者了解隐私风险和特定数据用途,医生可以确保他们获得真正知情的同意。此外,医生应该告知患者收集和使用其数据所涉及的隐私风险。现有立法的一个漏洞是排除了数据重新识别的风险。根据 PIPEDA,“个人信息”被定义为“关于可识别个人的信息”。2 因此,去识别数据不受联邦立法的相同保护。然而,这种缺乏保护的做法忽视了数据被重新识别的风险。例如,2018 年的一项研究对去识别化的身体活动(加速度计)数据集进行了研究,能够重新识别 80% 的儿童和 95% 的成年人的人口统计和身体活动水平。3 鉴于这些风险,即使是去识别化的数据也应该受到某些保护,例如限制访问。此外,人工智能和机器学习可能能够从曾经被认为是良性的个人数据中重新识别个人信息。例如,皮肤

人工智能时代的数据访问和隐私

人工智能时代的数据访问和隐私PDF文件第1页

人工智能时代的数据访问和隐私PDF文件第2页

人工智能时代的数据访问和隐私PDF文件第3页

人工智能时代的数据访问和隐私PDF文件第4页

人工智能时代的数据访问和隐私PDF文件第5页

相关文件推荐

2022 年
¥1.0
2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0