摘要 负责任地专业使用人工智能意味着准备好以合乎道德的方式应对和解决可能与此类使用相关的危害。这预示着对错误的所有权。在本文中,我提出一个问题:人工智能增强决策中的错误(例如人工智能辅助医疗诊断)是否可以归咎于人工智能系统本身,并对此问题给出了否定的回答。我将探讨两种选择。如果人工智能系统仅仅是工具,那么我们永远没有理由将错误归咎于它们,因为它们的失败不符合对错误的合理约束。如果为了论证的目的,我们假设人工智能系统不是(仅仅)工具,那么我们将面临某些挑战。首先,我们需要解释人工智能系统的这种超越工具的角色是什么,并为将人工智能系统视为工具建立正当理由。其次,需要证明医疗诊断可以简化为人工智能系统的计算,而不会对诊断程序的目的和质量造成任何重大损失。我的结论是,混合决策中的错误归属问题需要新形式的认识论责任。
PC12 是同类飞机中制造最精良、飞行最安全的飞机之一。对吗?作者:John Morris 绝对正确!但既然如此,那么为什么在过去一年(2008 年 9 月至 2009 年 8 月)期间,[报告的] 事件(1)/ 事故(4 起致命)不幸增加?当局对所有 PC12 事故(视为已结案)以及美国大多数航空事故给出的主要原因是人为因素或空间定向障碍,通常意味着这是飞行员的错。无论使用何种措辞,将其归咎于飞行员,有时似乎是一个过于简单的借口,而且不公平,尽管将其归咎于其他人(或事物)已成为一种全国性的消遣。然而,与所有其他指责者不同,在提到人为因素的情况下,飞机事故调查的范围及其结论确实指向某种判断或决策错误,而这种错误至少可能导致最终结果。我们都应该意识到导致这一结果的事件“链”,飞行员的行为或不作为可以形成联系或打破这一链条。所以我们又一次在这里讨论决策和风险管理。为什么?在我看来,我们需要另一次审查,也许还需要一个不同的视角。FAA [风险管理手册 - 2009 年 5 月]、AOPA 和其他来源提供了风险管理工具。它们非常有用,至少应该定期参考。但本文将重点关注从不同角度看到的决策和风险管理,即对 PC12 能力可能过度自信,导致决策失误和风险增加。在我多年的教学中,我通常会提到 Pilatus 如何出色地“确保”PC12 的飞行员安全,这意味着消除了许多飞行员可能导致事故/意外的经典方式。但没有人可以完全消除人为因素或消除破坏系统的手段。最终,重力总是占上风。因此,我们希望努力涵盖所有有形因素,并为无形因素做好准备。我很好奇,驾驶员是否会对 PC12 及其功能过于自信。让我们谈谈有形因素。技术是否助长了这种过度自信?当今的技术比以往任何时候都更加神奇,而且变化/改进的速度不是几年,而是几个月。因此,我确实相信,这会产生问题,成为链条中的一个环节,直到飞行员适应更新的可用技术。这方面的例子包括改进的下载天气信息、WAAS 升级的航空电子设备-自动驾驶仪接口,甚至 PC12NG 与 Apex 系统。我所说的调整是指正确理解和利用这些新信息,因为它适用于增强 PC12 的飞行。这也意味着了解这项新技术不那么明显的局限性,从而知道何时使用标准、基本的飞行判断,如果有疑问。另一个有形的是飞行员驾驶 PC12 的一般熟练程度,而不仅仅是仪表熟练程度。FAA 通过改变方法提供了一些帮助
丝毫不受其平坦的情感状态所阐明的程度。Star Tr Ek的Spock尽管缺乏情感,但仍将完全满足男士的要求。单调,无色,但哦,哦,如此有效 - “目的的动机”和“信仰的认知状态”足以使整天的fic tional spock非常轻松。,它们是许多现有计算机程序的完善的FEA TU。在1996年冠军赛的第一场比赛中,IBM的电脑深蓝色击败世界国际象棋冠军加里·卡斯帕罗夫(Garry Kasparov)时,它通过发现和执行精美的时机,一种枯萎的进攻来做到这一点,这在追溯到Kasparov和Hershtlers的过程中都太明显了。这是深蓝色对这些目的的敏感性,并且是认识和利用卡斯帕罗夫(Kasparov)游戏中的微妙缺陷的认知能力,这是深蓝色的成功。Murray Campbell,Feng-Hsiung Hsu和Deep Blue的Oth Er设计师没有击败Kasparov;深蓝色做到了。c am p-p bell和hsu都没有发现动作的获胜顺序。深蓝色做到了。在某一时刻,当卡斯帕罗夫(Kasparov)对《深蓝色国王》(Deep Blu e)的国王进行了猛烈的攻击时,除了深蓝色,没有人知道它有时间和安全性,需要击败卡斯帕罗夫(Kasparov)的讨厌的典当,而卡斯帕罗夫(Kasparov)的典当是在Acti上脱颖而出,但几乎是无形的。坎贝尔(Campbell)就像人类的祖先观看比赛一样,永远不会敢考虑在压力下如此平静的MOPP运作。深蓝色,像许多其他配备人工智能的计算机一样