Loading...
机构名称:
¥ 1.0

1美国国立卫生研究院(NIH)的NIH临床中心,美国马里兰州贝塞斯达州2已经提出了语言模型(LLMS)来支持许多医疗保健任务,包括疾病诊断和治疗个性化。虽然可以应用AI来协助或增强医疗保健的提供,但也存在滥用的风险。llms可用于根据不公平,不准确或不公正的标准分配资源。例如,社会信贷系统使用大数据来评估社会中的“可信赖性”,从而根据仅由权力结构(公司实体,管理机构)定义的评估指标来惩罚那些得分差的人。强大的LLM可以扩大此类系统,该系统可以根据多模式数据(金融交易,Internet活动和其他行为输入)对个人进行评分。医疗保健数据也许是最敏感的信息,可以收集,并有可能通过“临床信贷系统”来侵犯公民自由,其中可能包括限制或配给标准护理。本报告模拟了如何利用临床数据集,并提出了减轻AI医疗保健模型固有的风险的策略。1。简介大语模型(LLMS)可以使用复杂的非结构化数据执行高级任务 - 在某些情况下,除了人类功能之外。1,2这种进步正在扩展到医疗保健:正在开发新的AI模型来使用患者数据进行任务,包括诊断,工作流程改进,监测和个性化治疗建议。但是,如果受到管理当局,公司或其他决策实体的虐待,临床AI普遍性的这种增加也会引起公民自由的重大脆弱性。对这种潜力的认识可能会降低风险,激励透明度,为负责任的治理政策提供信息,并导致新保障措施的发展。社会信贷制度是“大数据压迫”的新兴例子,旨在限制“抹黑”的特权,但不是“可信赖”。 3-23在社会信用系统中,从公民/成员收集的大型多模式数据集可用于确定给定社会内的“可信赖性”,基于仅由功率结构定义和控制的评分指标。3-23公民必须表现出对权力结构的忠诚,并积极地与专业,财务和社会优化的既定定义保持一致;否则,他们可能会失去自己和亲人的关键资源访问权限。例如,对管理机构的批评可能会导致旅行,就业,医疗服务和/或教育机会的限制。3-23甚至非常小的“犯罪”,例如轻率的购买,停车票或过度的在线游戏,也可能导致处罚。21-23最终,从电力结构中获取资源,威胁力量结构或以其他方式被认为是不受欢迎/不信任的任何行为都可能导致负面后果,包括由于公共“黑名单”而进行的社会羞辱。24个社会信贷系统旨在扩大公司,医院系统和其他实体持续存在的现有数据权滥用 - 无论是在监视/数据收集方面,都可以根据分数来采取的行动范围。记录的数据滥用示例包括从私人汽车购买数据,以根据驾驶行为以及使用筛查算法来增加保费,以否认老年人或残疾患者的健康保险索赔(覆盖医师建议)。25-28同样,有偏见的算法被用于错误地拒绝器官移植,并且一项研究警告了多基因风险评分在永久性种族/种族歧视中的作用

模拟了大型语言模型和临床信用系统的滥用

模拟了大型语言模型和临床信用系统的滥用PDF文件第1页

模拟了大型语言模型和临床信用系统的滥用PDF文件第2页

模拟了大型语言模型和临床信用系统的滥用PDF文件第3页

模拟了大型语言模型和临床信用系统的滥用PDF文件第4页

模拟了大型语言模型和临床信用系统的滥用PDF文件第5页

相关文件推荐