详细内容或原文请订阅后点击阅览
医疗保健如何解决 AI 数据公平性问题
一位国际专家在阿德莱德举行的一次健康会议上概述了用于训练医疗保健领域人工智能 (AI) 的数据所涉及的风险和道德考虑。英国伯明翰大学监管科学与创新中心主任阿拉斯泰尔·丹尼斯顿教授表示,问题在于 […]
来源:宇宙杂志在阿德莱德的卫生会议上,国际专家概述了与用于培训人工智能培训人工智能(AI)的数据相关的风险和道德考虑因素。
道德考虑英国伯明翰大学监管科学与创新中心主任阿拉斯泰尔·丹尼斯顿(Alastair Denniston)教授说,这个问题是有一个公平的差距。
丹尼斯顿昨天在澳大利亚卫生与医学科学院(AAHMS)2024年会上发表主题演讲,昨天在南澳大利亚州的阿德莱德举行了年度会议。
澳大利亚卫生与医学科学院(AAHMS)2024年会“对公平差距和人工智能偏见的认识越来越高……我们一直在头条新闻中看到这一点。但是,这对健康状况如何?证据怎么说?”
丹尼斯顿描述了健康数据贫困的问题:“……个人,群体或人群无法从数据驱动的发现和创新中受益,这是由于代表性的数据不足。
“从概念和优先设置一直到部署后,偏见都可以进入AI,”他说。
“我们特别关注一个领域……数据注意事项。
“目前正在用于开发AI或[公开使用)的数据集……这些数据集多样性不佳,它们仅代表世界某些地区,通常是较富裕的地区。
“我们不仅有可能拥有不当代表我们人口多样性的数据集,而且实际上我们甚至都不知道这些数据集中的人。
数据集“如果我们按大规模推出,我们基本上正在扩大整个社会的偏见,”他说。
站在一起丹尼斯顿说,自发布以来,这些标准已被广泛采用。
AAHMS年会 在这里