Loading...
机构名称:
¥ 2.0

人工智能 (AI) 和机器学习 (ML) 为改善生活质量带来了巨大潜力。它还会产生重大的社会、文化和其他意想不到的风险。我们旨在从种族多元化的高收入国家的主要卫生专家的角度探索可应用于疾病预测 ML 模型的公平概念。2022 年 7 月至 12 月期间,对新西兰 (NZ) 卫生部门的主要专家进行了深入访谈。我们邀请的参与者是其族裔社区的主要领导人,包括毛利人 (土著)、太平洋岛民和亚洲人。访谈问卷包括六个部分:(1) 对医疗保健分配的现有态度;(2) 对全科医生 (GP) 级别所持有的数据的现有态度;(3) 疾病预测模型在 GP 级别可接受的数据;(4) 在部署这些模型时获得收益与产生不必要担忧之间的权衡;(5) 减少风险预测模型中的偏见;(6) 将社区共识纳入疾病预测模型以获得公平结果。研究表明,参与者一致认为,机器学习模型不应因数据偏差和算法不公平而造成或加剧医疗保健领域的不平等。对公平概念的探索表明,预测建模必须考虑精心选择的数据类型,而获取利益与产生不必要担忧之间的权衡产生了相互矛盾的意见。参与者对使用机器学习模型表示高度接受,但对不平等问题以及这些模型如何影响最脆弱的群体(如中年及以上的毛利人和生活在贫困社区的毛利人)表示深切担忧。我们的研究结果有助于开发考虑种族多元化社会社会影响的机器学习模型。

用于疾病预测的公平机器学习模型

用于疾病预测的公平机器学习模型PDF文件第1页

用于疾病预测的公平机器学习模型PDF文件第2页

用于疾病预测的公平机器学习模型PDF文件第3页

用于疾病预测的公平机器学习模型PDF文件第4页

用于疾病预测的公平机器学习模型PDF文件第5页

相关文件推荐

2021 年
¥1.0