突触可塑性的规范模型使用数学和计算模拟的组合来预测行为和网络级别自适应现象。近年来,这些模型上已经爆炸了理论工作,但是实验确认相对有限。在本综述中,我们根据一组Desiderata组织了对规范性可塑性模型的工作,该模型在满足时旨在确保模型在可塑性和适应性行为之间具有明确的联系,与有关神经可塑性的已知生物证据的一致性以及有关神经可塑性的一致性以及特定的可测试预测。然后,我们讨论了新模型如何开始改善这些会计学,并提出进一步发展的途径。作为原型,我们提供了两个特定模型的详细分析-Enforce和Wake-Sleep算法。我们提供了一个概念指南,以帮助开发精确,强大且可以实验测试的神经学习理论。
可解释的人工智能是实现公平性和解决算法决策偏见的基本步骤。尽管关于该主题的研究很多,但解决方案的好处大多是从概念或理论的角度进行评估的,对实际用例的实用性仍不确定。在这项工作中,我们旨在明确以用户为中心的可解释人工智能需求,以反映欧洲中央银行统计生产系统中常见的可解释性需求。我们将需求与典型的用户角色联系起来,并给出可用于满足用户需求的技术和方法的示例。为此,我们从中央银行统计数据生产领域提供了两个具体的用例:中央证券数据库中的异常值检测和监管银行数据系统的数据质量检查数据驱动识别。1
描述公平性估计的交叉性问题开发了必不可少的方法来指导搜索公平度指标以基于假设测试的指标来探讨探索基本上不同的方法:公平性作为足够的方法(不是平等),核算不确定性(非点估计)是否充分考虑了估计公平性的统计不确定性吗?
一些哲学家寻找认知的标志:一组单独必要和共同充分的条件,用于识别所有认知实例。他们声称,标志对于回答有关认知的性质和分布的难题是必要的。在这里,我将论证,就目前情况而言,鉴于认知科学的现状,我们无法识别认知的标志。我将按如下方式进行。首先,我阐明一些促使寻找认知标志的因素,从而强调标志应该满足的要求。然后,我强调文献中关于标志的紧张关系。根据文献,尚不清楚搜索的目的是为了捕捉直观的认知概念还是真正的科学概念。然后,我依次考虑每个选项,声称无论哪种方式,都无法提供满足要求的标志。然后,我转移了一个可预见的反对意见,并强调了我观点的一些含义。
schnorr签名方案的阈值变体最近由于其在加密货币上的应用而处于关注的焦点。However, existing constructions for threshold Schnorr signatures among a set of n parties with corruption threshold t c suffer from at least one of the following drawbacks: (i) security only against static (i.e., non-adaptive) adversaries, (ii) cubic or higher communication cost to generate a single signature, (iii) strong synchrony assumptions on the network, or (iv) t c + 1 are sufficient to generate a签名,即该计划的腐败门槛等于其重建阈值。特别是(iv)对于许多异步现实世界应用而言,这是一个严重的限制,在这些应用中,需要t c Ruffing等人提出的最新计划,烤。 (ACM CCS 2022)地址(III)和(IV),但仍未获得亚皮的通信复杂性和自适应安全性。 在这项工作中,我们介绍了Harts,这是结合所有这些Desiderata的第一个阈值Schnorr签名方案。 更具体地:Ruffing等人提出的最新计划,烤。(ACM CCS 2022)地址(III)和(IV),但仍未获得亚皮的通信复杂性和自适应安全性。在这项工作中,我们介绍了Harts,这是结合所有这些Desiderata的第一个阈值Schnorr签名方案。更具体地:
摘要 — 可解释人工智能 (XAI) 领域的一大挑战是如何评估可解释性方法。已经提出了许多评估方法 (EM),但尚未建立黄金标准。几位作者根据 EM 本身的特点将可解释性方法的 EM 分为几类(例如,基于启发式、以人为本、基于应用、基于功能)。在本愿景论文中,我们提出也可以根据 EM 所针对的 XAI 过程的各个方面对 EM 进行分类。基于阐明 XAI 中主要过程的模型,我们提出存在解释信息 EM、理解 EM 和需求 EM。这种新颖的观点旨在通过较少关注 EM 本身而是关注可解释性方法想要实现的目标(即提供良好的解释信息、促进理解、满足社会需求)来增强其他作者的观点。我们希望这两种观点的结合能让我们更全面地评估可解释性方法的优缺点,帮助我们做出更明智的决定,决定使用哪种方法或如何改进它们。索引术语——可解释性、可解释人工智能、XAI、评估、评估方法、指标、研究
人工智能和机器学习中的解释性(AI/ML)正在成为学术研究的主要领域,并且是一个重大监管问题的主题。越来越多的人,党派,政府和民间社会团体正在达成共识,即AI/ML必须可以解释。在本文中,我们挑战了这一主要趋势。我们认为,要解释性成为道德要求,甚至更多地是为了成为法律要求 - 它应该满足某些当前无法使用的desiderata,甚至可能无法。,本文认为,当前的可解释AI/ML的盛行方法通常是(1)无法指导我们的行动和计划,(2)无法透明地透明透明的原因,而没有实施自动化的决定,并且(3)承销规范(道德和法律)判断>>
可解释人工智能 (XAI) 领域的最新研究试图通过分而治之的策略使不透明的 AI 系统变得易于理解。然而,这无法阐明经过训练的 AI 系统作为一个整体是如何工作的。然而,正是这种功能性理解才是满足安全等重要社会需求所必需的。为了解决这种情况,我们认为,AI 研究人员应该寻求机械可解释性,即应用生命科学中熟悉的协调发现策略来揭示复杂 AI 系统的功能组织。此外,理论家在描述 XAI 研究时应该考虑到此类策略的独特成本和收益。
教学结构:本课程是根据我典型的 10 周课程教学模式设计的。我有一篇“主要阅读材料”,我会就此进行讲课。我通常用它来介绍一个广泛的主题以及我认为特别有趣的任何论点或概念。然后,我会进行一篇“次要阅读材料”,我会就此进行讨论。除了这些材料外,我还准备了一组可选阅读材料,我不会要求学生阅读,但如果他们阅读,这将大大提升体验。重新评估我对这门课程的要求主要是希望学生对课程涉及的问题有深入的了解。因此,我会根据 10 周的任何材料,就他们选择的主题撰写一篇长篇论文进行评估。学生将撰写论文草稿或论文计划,并将其提交给我以获得初步反馈。然后,课程结束时,他们会根据该论文的重写情况进行评分。部分要求是学生充分回应反馈,因为我认为理解这些问题需要能够明智地参与来回讨论。因此,在最后一篇论文中应该包含一个简短的附录(例如,不超过 800 个字),说明他们如何回应反馈以及他们为什么做出这样的选择。先决条件:本课程所需的技能组合意味着它可能适合作为高级本科或硕士课程,虽然我不会坚持这一点,但一些道德/政治哲学和逻辑/统计学方面的经验会很有用。
我们想要什么机器智能?我们设想的机器不仅是思想的工具,而且是思想中的合作伙伴:合理,有见地,知识渊博,可靠和可信赖的系统与我们一起思考。当前的人工智能(AI)系统在某些时候满足了其中一些标准。从这个角度来看,我们展示了如何将协作认知科学用于工程师系统,这些系统确实称为“思想合作伙伴”,旨在满足我们的期望并补充我们的局限性。我们制定了几种协作思想模式,其中人类和人工智能认为合作伙伴可以参与并提出Desiderata作为与人类兼容的思想伙伴关系。借鉴了计算认知科学的图案,我们激发了通过贝叶斯镜头围绕其使用的思想伙伴和生态系统设计的替代缩放路径,从而通过贝叶斯镜头来实现我们的合作伙伴,从而积极地建立和理性,而不是人类和世界的模型。