推荐引用 推荐引用 Mitrovic, Snezana;Saini, Vinay;Xavier, Alwin;以及 Grobel, Wojciech,“基于人工智能的偏远地区 5G 卫星覆盖节能解决方案”,技术披露共享资源,(2024 年 12 月 18 日)https://www.tdcommons.org/dpubs_series/7657
摘要研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错过医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户对医疗保健是否信任人工智能系统做出深思熟虑的判断的解释。本文的目的是确定可以有效地为值得信赖的解释界面的设计提供信息的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了一个用户心理模型、一个专家心理模型和一个目标心理模型,描述了非专家和专家如何理解解释,他们的理解有何不同,以及如何将它们结合起来。基于目标心理模型,我们提出了一套 14 条解释设计指南,用于可信的人工智能医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和人工智能专家的理解。
Prasad现在在他令人印象深刻的出版物《恶性:糟糕的政策和不良证据损害癌症人(2020年)如何损害他的第一本书(2020年)之后,他在他的第一本第一年之后发行,结束了医疗逆转:改善结果,挽救生命,他与Adam Cifu(2019年)共同撰稿。恶性结合了普拉萨德(Prasad)对持续的论点的研究,并呼吁癌症研究和政策变化,从临床试验设计和LAX药物批准机制到未对准的药物激励措施和财务冲突。毫无疑问,Prasad庞大的Twitter毫无疑问,他的许多观点都以140个角色爆发而播出。尽管这些以恶性为编辑(省略了),但普拉萨德并没有回避争议,而是用清醒,可读的散文提出了他的论点。