摘要 负责任地专业使用人工智能意味着准备好以合乎道德的方式应对和解决可能与此类使用相关的危害。这预示着对错误的所有权。在本文中,我提出一个问题:人工智能增强决策中的错误(例如人工智能辅助医疗诊断)是否可以归咎于人工智能系统本身,并对此问题给出了否定的回答。我将探讨两种选择。如果人工智能系统仅仅是工具,那么我们永远没有理由将错误归咎于它们,因为它们的失败不符合对错误的合理约束。如果为了论证的目的,我们假设人工智能系统不是(仅仅)工具,那么我们将面临某些挑战。首先,我们需要解释人工智能系统的这种超越工具的角色是什么,并为将人工智能系统视为工具建立正当理由。其次,需要证明医疗诊断可以简化为人工智能系统的计算,而不会对诊断程序的目的和质量造成任何重大损失。我的结论是,混合决策中的错误归属问题需要新形式的认识论责任。
11. Craig P、Di Ruggiero E、Frohlich K、Mykhalovskiy E、White M。在人口健康干预研究中考虑背景:研究生产者、使用者和资助者的指南 [Internet]。南安普敦:代表加拿大卫生研究院 (CIHR) - 国家卫生研究院 (NIHR);2018 年。网址:https://www.ncbi.nlm.nih.gov/books/NBK498645/pdf/Bookshelf_NBK498645.pdf
此次评估旨在帮助从通过采访不同利益相关者完成问卷调查收集的观点的角度,为纳米比亚的科学、技术和创新 (STI) 状况提供整体记分卡。该报告旨在为国家研究、科学和技术委员会 (NCRST) 与高等教育、技术和创新部 (MHETI) 和联合国教育、科学及文化组织 (UNESCO) 合作进行的更大规模评估报告提供信息。这一战略伙伴关系倡议有助于从公共和私人研究、开发和创新领域的相关利益相关者收集数据。需要特别感谢墨西哥国立自治大学拨款管理和资源调动部门的 Selma Lendelvo 博士和 Ihuhwa Catherine Malulu 女士,她们协助进行了数据分析。
1 美国马里兰州巴尔的摩市约翰霍普金斯大学彭博公共卫生学院国际卫生系,2 印度昌迪加尔医学教育与研究研究生院社区医学系和公共卫生学院,3 美国马里兰州巴尔的摩市约翰霍普金斯大学彭博公共卫生学院国际疫苗获取中心,4 美国马里兰州巴尔的摩市约翰霍普金斯大学彭博公共卫生学院流行病学系,5 美国马里兰州巴尔的摩市约翰霍普金斯大学彭博公共卫生学院人口、家庭与生殖健康系,6 美国马里兰州巴尔的摩市约翰霍普金斯大学医学院儿科系,7 美国马里兰州巴尔的摩市约翰霍普金斯大学彭博公共卫生学院卫生、行为与社会系
区块链作为新兴的下一代信息技术,在信息透明、交易安全等方面具有独特优势,受到了社会及金融领域的高度关注。然而量子计算的快速发展和量子霸权的即将实现,对基于传统密码学的传统区块链的优势产生了重大冲击。本文提出一种基于非对称量子加密和权益投票共识算法的区块链算法。该算法将基于节点行为和Borda计数的委托权益证明(DPoSB)的共识算法与基于完全翻转置换(QSCDff)问题的量子态计算区分性的量子数字签名技术相结合,使用DPoSB通过投票生成区块,而量子签名则应用量子单向函数来保证交易的安全性。分析表明,该组合比现有的其他抗量子区块链具有更好的保护效果,可以有效抵御量子计算对区块链技术的威胁,为保障区块链的安全提供新的平台。
2 监测组《加强国际审计和道德标准制定体系》中描述了可制定高质量标准的三层体系,可访问 https://www.iosco.org/about/monitoring_group/pdf/2020-07-MG-Paper-Strengthening-The-International-Audit-And- Ethics-Standard-Setting-System.pdf 。
由于感知和推理不完善,语音助手等交互式人工智能系统必然会出错。之前的人机交互研究表明,各种错误缓解策略对于在服务故障后修复人工智能感知至关重要。这些策略包括解释、金钱奖励和道歉。本文通过探索不同的道歉方式如何影响人们对人工智能代理的看法,扩展了之前关于错误缓解的研究;我们报告了一项在线研究(N=37),该研究考察了道歉的诚意和责任的分配(无论是代理本身还是其他人)如何影响参与者对错误人工智能代理的看法和体验。我们发现,与将责任推卸给他人的代理相比,那些公开接受责任并真诚为错误道歉的代理被认为更聪明、更讨人喜欢,并且更能有效地从错误中恢复过来。
目标忽视学生的实际能力 目标需要具有挑战性,但也应根据学生当前的学业、身体或认知挑战而具有相关性/现实性。例如:克拉克想成为一名脑外科医生,但他 14 岁时的阅读水平只有 3 年级,很可能无法通过入学考试。在这种情况下,团队可能希望进一步探究克拉克为什么想成为一名脑外科医生,以及有哪些替代方案仍然符合他的兴趣。
摘要 目标 不同的利益相关者可能对医疗保健领域的人工智能 (AI) 应用持有不同的态度,如果 AI 开发人员未能考虑到这些态度,这可能会限制他们的接受度。我们着手确定临床医生、消费者、管理人员、研究人员、监管机构和行业对医疗保健领域 AI 应用的态度证据。方法 我们对标题或摘要包含“人工智能”或“AI”和“医疗”或“医疗保健”以及“态度”、“看法”、“意见”、“观点”、“期望”等术语的文章进行了探索性分析。我们使用滚雪球策略在 PubMed 和 Google Scholar 中搜索 2010 年 1 月 1 日至 2021 年 5 月 31 日发表的文章。我们选择了与用于支持医疗保健相关任务或决策的非机器人面向临床医生的 AI 应用相关的文章。结果 在 27 项研究中,人们对医疗保健领域 AI 应用的态度总体上是积极的,对于那些有 AI 直接经验的人来说更是如此,但前提是满足某些保障措施。与直接影响临床决策或可能影响临床医生与患者关系的 AI 应用相比,自动进行数据解释和合成的 AI 应用更受临床医生和消费者的青睐。隐私泄露和 AI 相关错误的个人责任令临床医生感到担忧,而失去临床医生的监督和无法完全参与决策令消费者感到担忧。临床医生和消费者都希望 AI 生成的建议值得信赖,而行业团体则强调 AI 的好处,并希望获得更多数据、资金和监管确定性。讨论 许多利益相关者群体对人工智能应用的某些期望是共同的,从中可以定义一组依赖关系。结论 利益相关者对人工智能的态度有所不同,但并非全部。那些开发和实施应用程序的人应该考虑弥合不同利益相关者之间态度分歧的政策和流程。
到目前为止,巴斯、东北萨默塞特、斯温顿和威尔特郡已经接种了超过 148,000 剂加强针,这意味着几乎三分之二(62%)能够接种第三针的人已经接种了该疫苗。