3个问题:如何帮助学生识别其AI数据集中的潜在偏见

开发医疗保健AI模型的课程需要更多地专注于识别和解决偏见。

来源:MIT新闻 - 人工智能

每年,成千上万的学生参加教会他们如何部署人工智能模型的课程,这些模型可以帮助医生诊断疾病并确定适当的治疗方法。但是,其中许多课程忽略了一个关键要素:培训学生在用于开发模型的培训数据中发现缺陷。

Leo Anthony Celi是MIT医学工程与科学研究所的高级研究科学家,Beth Israel Deaconess Medical Center的医师,Harvard Medical School的副教授,已在新论文中记录了这些缺陷,并希望说服课程开发人员更彻底地将他们的数据纳入其模型。许多先前的研究发现,在应用于其他群体的人时,主要是对白人男性临床数据进行培训的模型。在这里,Celi描述了这种偏见的影响以及教育者如何在他们有关AI模型的教义中解决它。

Leo Anthony Celi是麻省理工学院医学工程与科学研究所的高级研究科学家,贝丝以色列女执事医学中心的医生,哈佛医学院的副教授,已记录了这些缺陷 新纸 并希望说服课程开发人员在将数据纳入模型之前,教学生更彻底评估他们的数据。许多先前的研究发现,在应用于其他群体的人时,主要是对白人男性临床数据进行培训的模型。在这里,Celi描述了这种偏见的影响以及教育者如何在他们有关AI模型的教义中解决它。

问:偏见如何进入这些数据集,如何解决这些缺点?

Q: a: 脉搏血氧仪 变压器模型 问:为什么AI的课程涵盖潜在偏见的来源很重要?分析此类课程的内容时,您发现了什么? 问:开发人员应该合并哪种内容? Q: a: 脉搏血氧仪

变压器模型

问:为什么AI的课程涵盖潜在偏见的来源很重要?分析此类课程的内容时,您发现了什么?问:开发人员应该合并哪种内容?