已经描述了多种解释性方法,以帮助用户更好地了解现代AI系统如何做出决策。但是,开发用于评估这些方法的大多数性能指标基本上仍然是理论上的 - 没有太多考虑人类最终用户。尤其尚不清楚(1)在现实世界中,当前解释性方法的有用程度如何; (2)当前的性能指标是否准确地反映了最终用户的解释方法的有用性。为了填补这一差距,我们进行了心理物理学实验(n = 1,150),以评估三种现实世界中代表性归因方法的有用性。我们的结果表明,在这些情况下,各个归因方法可以帮助人类参与者更好地理解AI系统的程度差异很大。这表明需要超越当前归因方法的定量改进,朝着开发互补方法的发展,这些方法为人类最终用户提供了质量不同的信息来源。
摘要 本文提出了一种尝试制定机器意识理论的新方法。目前,研究主要围绕制定可应用于机器的标准,以确定它们是否具有类似人类的意识。本文表明,迄今为止的努力尚未取得成果,相反,发现目前的调查方法注定会导致支持机器意识的人和反对机器意识的人陷入僵局。因此,本文质疑人类和机器意识必须彼此相似的假设。它探索了一种不同的方法,这种方法拒绝了两种意识形式需要在同一理论下定义的想法。然后,本文假设,最好为人类和机器意识开发单独的理论,这些理论可能彼此不可比较,尽管它并没有为任何“类”意识提出具体的理论。这种方法论的改变将为心灵哲学的研究开辟新的途径,并允许更多的科学家为制定此类理论做出贡献。
在任何大型无线网络上频率协调的证明都是必不可少的,因为需要重复使用和降低噪声来正确扩展网络跨最后一英里。虽然某些联邦调节的系统,例如6GHz中的自动频率协调(AFC),而CBR中的Spectrum访问系统(SAS)解决了一些频率重复使用问题,但在60GHz中需要一个无信任的解决方案。Dawn将使用一种放入机制,通过该机制,需要通过该机制锁定令牌,以便在点对点部署中对特定频率通道的独家访问。相邻节点将扫描相关的频率以验证适当的通道利用率并通过自动智能合约获得奖励。基金会将资助访问混乱数据并向网络提出地理信息系统(GIS)挑战。节点将获得所需的杂物数据的加密子集,以验证BN或DN的无线传播,并通过自动化的智能合约来奖励令牌,以证实预期的RSSI和其他无线指标。基于此无信任的无线传播模型(无线热图),将使用某些信号阈值来确定哪些通道可根据节点的位置存放。
在任何大型无线网络上频率协调的证明都是必不可少的,因为需要重复使用和降低噪声来正确扩展网络跨最后一英里。虽然某些联邦调节的系统,例如6GHz中的自动频率协调(AFC),而CBR中的Spectrum访问系统(SAS)解决了一些频率重复使用问题,但在60GHz中需要一个无信任的解决方案。Dawn将使用一种放入机制,通过该机制,需要通过该机制锁定令牌,以便在点对点部署中对特定频率通道的独家访问。相邻节点将扫描相关的频率以验证适当的通道利用率并通过自动智能合约获得奖励。基金会将资助访问混乱数据并向网络提出地理信息系统(GIS)挑战。节点将获得所需的杂物数据的加密子集,以验证BN或DN的无线传播,并通过自动化的智能合约来奖励令牌,以证实预期的RSSI和其他无线指标。基于此无信任的无线传播模型(无线热图),将使用某些信号阈值来确定哪些通道可根据节点的位置存放。
雅虎公司的伞。确保每个业务部门都符合这些强制性控件为整个Yahoo Enterprise提供了统一的信息安全方法。安全标准和控件由Yahoo Paranoids团队管理,后者是主题专家,并为标准实施提供了中央权威。当每个业务部门以统一的方式实施标准时,整个Yahoo Enterprise更加安全地抵抗复杂的网络安全威胁。控制每个标准中概述的特定的强制安全要求称为控件。每个Yahoo标准中的控件都来自整体Yahoo“统一控制框架”(UCF)中的安全要求库,该库是专门为在颗粒状级别实施安全最佳实践的专门制定的,并与安全标准的NIST分类一致。业务部门有望将每个标准的安全控制视为强制性的,并在Yahoo偏执狂的指导下实施它们。
部署的人工智能系统的意外后果促使人们呼吁人工智能系统具有更多的可解释性。可解释的人工智能 (XAI) 系统通常为用户提供简化的局部解释,以用于个别预测,但让他们自己构建对模型行为的全局理解。在这项工作中,我们研究了 XAI 的非技术用户在解释附加的局部解释时是否会陷入解释深度的错觉。我们采用了一种混合方法,包括一项有 40 名参与者的主持研究和一项有 107 名众包工作者的无主持研究,使用基于 SHAP 框架的电子表格式解释界面。我们观察了非技术用户如何从局部解释中形成他们对全局人工智能模型行为的心理模型,以及他们的理解感知在检查时如何下降。
“如何度过人工智能寒冬” James Luke 博士,IBM 杰出工程师和首席发明家 如果您不知道,人工智能寒冬是指在人们对人工智能的期望达到顶峰之后出现的低迷,资金枯竭,专业人士对其潜力嗤之以鼻。70 年代末 80 年代初发生过一次人工智能寒冬,十年后又发生过一次——最后一次是在 1992 年。在这样的“寒冬”里,人们对人工智能嗤之以鼻并不罕见——James Luke 深情地回忆起 IBM 的一位(至今仍是)高管在他职业生涯早期告诉他,“如果你想在公司有所成就,就离开人工智能”。但即便是 Luke 也承认,考虑到挑战的规模,出现怀疑者并不奇怪。Luke 在会议开幕式主旨演讲中表示:“我们试图用人工智能重塑人脑的智能,这是人类面临的最大工程挑战。” “它比曼哈顿计划、比大型强子对撞机还要大——但我们通常只以两三个人组成的团队进行研究。”尽管如此,他仍敦促与会代表对人工智能保持积极态度,因为如果以正确的方式对待,人工智能可以发挥作用并带来巨大的机遇。那么,什么才是“正确的方式”?卢克说,人工智能有效用例的最佳例子之一仍然是 1997 年超级计算机深蓝与世界冠军国际象棋选手加里卡斯帕罗夫之间的著名比赛。深蓝曾在 1996 年挑战卡斯帕罗夫并失败,而它的架构师 IBM 决心不再重蹈覆辙。IBM 工程师寻求另一位国际象棋大师的帮助来构建深蓝,并对计算机进行编程,使其能够预测未来 14 步。从本质上讲,它复制了人类的能力,但通过巨大的规模进行了扩展。尽管“深蓝”赢得了 1997 年的锦标赛,但它的局限性也暴露无遗。当时参与打造它的大师说:“深蓝每秒评估两百万步,我评估三步。但我怎么知道该评估哪三步?”卢克说,这句话完美地概括了人工智能的缺点:“我们还没有解决这个问题,我们不明白大师如何知道该评估哪三步。这是智能和人工智能之间差异的一个很好的例子。人工智能不会比人类更好——人类脑细胞比电子神经元复杂得多。”他补充说,人工智能经常被认为比人类智能更好,因为它不会忘记东西。但卢克认为,人类忘记的能力是智能的一部分,因为忘记可以帮助我们“概括、实验和学习”——更不用说不会被我们做过的所有可耻的事情所打败。卢克分享了三条让人工智能发挥作用的建议:
Cary Usrey是Predictive Solutions Corp.担任此职务,负责为寻求防止工人伤害和减少潜在责任的客户实施培训解决方案和最佳实践。Usrey于1988年开始了他在美国海军的核电计划的职业生涯,然后在阿迪朗达克资源恢复协会担任EHS合规总监已有12年以上。2004年,Usrey担任Turner Construction的职位,在那里他担任纽约州北部办事处的业务部门安全总监。 Usrey目前正在特立尼达州初级学院学习职业安全与健康。 他曾担任VPPPA(第二区)的董事会成员,目前是ASSE的成员。 可以通过cusrey@ preditiveivesolutions.com与他联系。2004年,Usrey担任Turner Construction的职位,在那里他担任纽约州北部办事处的业务部门安全总监。Usrey目前正在特立尼达州初级学院学习职业安全与健康。他曾担任VPPPA(第二区)的董事会成员,目前是ASSE的成员。可以通过cusrey@ preditiveivesolutions.com与他联系。