Loading...
机构名称:
¥ 2.0

这是本章的草稿。最终版本将在 Barry Solaiman 和 I. Glenn Cohen 编辑的《健康、人工智能和法律研究手册》中提供,即将于 2023 年出版,Edward Elgar Publishing Ltd.。未经出版商进一步许可,不得将材料用于任何其他目的,并且仅供私人使用。人工智能在医学领域的使用责任 W. Nicholson Price II、Sara Gerke 和 I. Glenn Cohen 虽然人工智能具有改善医疗实践的巨大潜力,但肯定会发生错误,有时会导致伤害。谁来承担责任?人工智能相关伤害的责任问题不仅引发了潜在责任方的直接担忧,还引发了关于如何开发和采用人工智能的更广泛的系统性问题。责任格局很复杂,涉及医疗保健提供者和机构以及人工智能系统的开发者。在本章中,我们将考虑这三个主要的责任地点。首先,我们指出了一些影响我们分析的问题。首先,人工智能侵权责任领域仍在发展中。截至撰写本文时,医疗人工智能责任仍未在法庭案件中得到直接处理,主要是因为该技术本身还很新,仍在实施中。因此,我们考虑侵权法的一般原则及其最有可能的应用方式。其次,因果关系在人工智能侵权情况下往往具有挑战性。在医学背景下,证明伤害的原因通常已经很困难,因为结果通常是概率性的,而不是确定性的。添加通常不直观且有时难以捉摸的人工智能模型可能会使因果关系更难以证明。第三,我们关注美国的观点。我们讨论的原则在某种程度上是可以推广的,但最终存在足够的复杂性,以至于在现有空间内试图准确捕捉国际差异是不可行的。我们在结论中确实指出了欧洲视野中一些潜在的重大变化。第四,从系统的角度来看,个人医疗专业人员的责任虽然很复杂,但只是系统设计者必须尝试拼凑起来的更大难题中的一块,才能实现全面且设计最佳的责任系统。许多参与者在医疗 AI 领域互动,包括可能承担责任的参与者和可能塑造它的监管者。首先,AI 开发人员将就底层 AI 做出许多关键选择,至少部分由责任系统指导 - 它是锁定的还是自适应的?选择架构会让“推翻”系统变得容易还是困难?

人工智能在医学中的应用责任

人工智能在医学中的应用责任PDF文件第1页

人工智能在医学中的应用责任PDF文件第2页

人工智能在医学中的应用责任PDF文件第3页

人工智能在医学中的应用责任PDF文件第4页

人工智能在医学中的应用责任PDF文件第5页

相关文件推荐