目的:该政策概述了人工智能(AI)工具的道德使用以及Sault Area Hospital(SAH)内的生成AI技术。为了减轻与使用AI相关的风险,本政策概述了使用AI技术的程序。该政策强调了遵守相关隐私和机密法规的重要性,包括《信息自由与保护隐私法》(FIPPA)(FIPPA)和加拿大安大略省的《个人健康信息保护法》(PHIPA)。政策:所有SAH员工,凭证员工,研究人员,志愿者,学生,承包商和任何其他方在使用AI用于任何SAH业务时都必须遵守AI政策(包括提供医疗保健)。使用人工智能(AI)环境听力工具仅限于医生,医师助理和助产士使用。
•记住,如果他们在8岁时接受第一个剂量,请记录在当前流感季节9岁的儿童的流感2剂量。•客户通知此个人信息是根据《信息自由与保护自由法》(FIPPA)的规定收集的,并已同意与北部卫生共享信息。
主席指出,同意议程下有以下事项需要董事会批准。 3.1 董事会会议记录 – 2024 年 5 月 22 日 3.2 董事会委员会成员 – 2024-2025 年 3.3 多部门服务问责协议 (MSAA) 和医院服务问责协议 (HSAA) 合规声明 3.4 医院顾问使用报告 3.5 根据《信息自由和隐私保护法》(FIPPA) 委派责任
您的个人信息和个人健康信息是根据《曼尼托巴大学法案》收集的。大学将使用您提供的信息来确定您在临床实习期间参与患者相关活动的能力。您的个人信息和个人健康信息可能会披露给您的临床实习地点,以确认您的免疫状况。有时,可能会根据需要从某些个人或组织获取或与其共享记录,以确定学生在当前学习计划中参与患者相关活动的能力。免疫计划提供的免疫接种将输入省免疫登记处(针对在曼尼托巴卫生部注册的人)。除非《个人健康信息法案》(PHIA)或《信息自由和隐私保护法案》(FIPPA)允许,否则您的个人信息和个人健康信息不会用于或披露用于其他目的。
2021 年 2 月 人工智能 (AI) 在医疗实践中的应用代表着医疗数据收集和使用的根本性转变。人工智能的引入不同于新诊断设备或技术的引入。因此,监管机构将现有的数据隐私和保护政策扩展到人工智能技术是不够的,因为它具有新的属性和安全风险。相反,监管应植根于对人工智能独特风险及其潜在健康益处的认识。 人工智能的知情同意和隐私 加拿大现行的健康隐私立法,包括联邦的 PIPEDA (个人信息保护和电子文件法)、安大略省的 PHIPA (个人健康信息保护法) 和不列颠哥伦比亚省的 FIPPA (信息自由和隐私保护法),都是在人工智能出现之前为保护患者数据而制定的。因此,在某些领域,健康隐私立法不足以为使用人工智能的医疗从业者提供指导。在这些领域,立法应辅以 MRA (医疗监管机构) 的指导。例如,关于收集、使用和披露健康数据的同意政策需要修改。具体来说,应更新确保同意是“知情的”或“知情的”的规定,以确保患者在选择分享其数据时完全了解其用途和所涉及的风险。目前,安大略省的主要健康隐私立法《PHIPA》将知情同意定义为患者被告知其使用、收集或披露的目的,以及他们知道可以拒绝或撤回同意。1 除了这些规定之外,医疗监管机构还应努力确保患者了解在涉及人工智能时其数据的各种潜在用途。如果医生的数据将被输入用于训练人工智能的数据库,即使这些数据是假名或去识别的,医生也应该被告知谁可以访问这些数据(例如,只有医疗保健从业者,或者只有研究人员,或者任何请求访问的人)以及如何访问这些数据(例如,研究人员和人工智能软件是否能够访问所有可用数据,或者他们是否仅限于特定和有限查询的结果)。总体而言,通过确保患者了解隐私风险和特定数据用途,医生可以确保他们获得真正知情的同意。此外,医生应该告知患者收集和使用其数据所涉及的隐私风险。现有立法的一个漏洞是排除了数据重新识别的风险。根据 PIPEDA,“个人信息”被定义为“关于可识别个人的信息”。2 因此,去识别数据不受联邦立法的相同保护。然而,这种缺乏保护的做法忽视了数据被重新识别的风险。例如,2018 年的一项研究对去识别化的身体活动(加速度计)数据集进行了研究,能够重新识别 80% 的儿童和 95% 的成年人的人口统计和身体活动水平。3 鉴于这些风险,即使是去识别化的数据也应该受到某些保护,例如限制访问。此外,人工智能和机器学习可能能够从曾经被认为是良性的个人数据中重新识别个人信息。例如,皮肤