Loading...
机构名称:
¥ 1.0

新技术带来了新的伦理(和法律)挑战。通常,我们可以应用先前建立的原则,即使可能需要一些时间才能完全理解新技术的细节 - 或由此产生的问题。例如,国际放射防护委员会成立于 1928 年,其建议基于平衡与 X 射线和 CT 扫描相关的辐射暴露与新调查的诊断优势。随着证据的积累和技术的变化,他们定期更新他们的建议,1 并且能够从完善的道德原则中推断出来。其他新技术不太适合现成的道德解决方案。本期的几篇文章讨论了与医学中使用人工智能 (AI) 相关的道德挑战。尽管已经制定了关于人工智能使用和发展的多项道德规范和指南,但哈根多夫指出,其中许多都重申了“基于普遍遵守原则和规则的义务论导向、限制行动的道德”。2 将现有的道德框架应用于人工智能是有问题的,原因有几个。具体来说,人工智能有两个特点与传统医学伦理所基于的当前临床实践截然不同:1.所谓的深度学习“黑匣子”,即深度神经网络经过训练,可以迭代适应,从而在复杂和非线性数据层之间做出越来越好的解释。3 由此产生的(并且不断适应的)算法通常过于复杂,无法解释或说明,这意味着正在使用的部分流程甚至对用户来说都是不透明的。4 这使得遵守透明度和知情同意原则变得困难甚至不可能,并限制了用户(临床医生和患者)的自主权。2.AI 的每个元素都是为了实现其创建者设定的特定目标而开发的,但没有“意图”

数据保护、信任和人工智能

数据保护、信任和人工智能PDF文件第1页

数据保护、信任和人工智能PDF文件第2页