近年来,人们对用量子力学语言来制定决策理论的可能性产生了浓厚的兴趣。在书籍 [ 1 – 4 ] 和评论文章 [ 5 – 8 ] 中可以找到大量关于此主题的参考资料。这种兴趣源于经典决策理论 [ 9 ] 无法遵循真实决策者的行为,因此需要开发其他方法。借助量子理论技术,人们有望更好地表征行为决策。有多种使用量子力学来解释意识效应的变体。本评论的目的不是描述现有的变体,因为这需要太多篇幅,可以在引用的文献 [ 1 – 8 ] 中找到,而是对作者及其同事提出的方法进行概述。这种方法被称为 [ 10 ] 量子决策理论 (QDT)。在本综述中,我们仅限于考虑量子决策理论,而不会涉及量子技术其他应用趋势,例如物理学、化学、生物学、经济学和金融学中的量子方法、量子信息处理、量子计算和量子博弈。显然,一篇综述无法合理地描述所有这些领域。尽管量子博弈论与决策理论有相似之处,但量子博弈的标准处理[11-15]与本综述中提出的量子决策理论的主要思想之间存在重要区别。在量子博弈论中,人们通常假设玩家是遵循量子规则的量子设备[16,17]。然而,在量子决策理论[10]的方法中,决策者不一定是量子设备,他们可以是真实的人。QDT 的数学类似于量子测量理论中的数学,其中观察者是经典人类,而观察到的过程则以量子定律为特征。在 QDT 中,量子理论是一种用于描述决策过程的技术语言。量子技术被证明是一种非常方便的工具,可以描述现实的人类决策过程,包括
摘要:从表面上看,行为科学和物理学似乎是两个不同的研究领域。然而,对他们解决的问题进行了更仔细的研究表明,它们彼此唯一相关。以量子思维,认知和决策理论为例,这种独特的关系是本章的主题。调查当前的学术期刊论文和学术专着,我们提出了量子力学在人类感知,行为和决策现代研究中的作用的另一种愿景。为此,我们主要旨在回答“如何”问题,故意避免复杂的数学概念,但要开发一种技术简单的计算代码,读者可以修改以设计自己的量子启发的模型。我们还介绍了计算代码的应用并概述几个合理的方案的几个实践示例,其中量子模型基于提议的DO-Yourandself Model套件可以帮助了解个人和社会群体的行为之间的差异。
摘要——这项工作源于对人工智能与数字技术的使用的需要,因此研究了决策中至关重要的过程,并对多个组织进行了评估。研究的过程是物品处理中的保管链。这一过程非常重要,因为它用于司法调查,以证明存在某种关系,从而可以清楚地确定犯罪现场发现的要素之间的关系。对每个相关方进行分析,了解物品的当前保管过程,以及物品从一个办公室转移到另一个办公室的情况。为了了解处理物品的保管链过程,采用了访谈工具,并与负责处理物品的人员进行更直接的接触,获取信息。总之,在完成前面的步骤后,获得了更清晰的流程图,从而确定了单一的流程流程,以及人工智能研究的一部分,提出了可以应用的建议,并针对提出的问题给出了解决方案,其中
摘要1摘要(葡萄牙)2认可3目录5图7缩写8术语9 1.简介10 1.1。背景10 1.2。问题语句12 1.3。研究目的14 1.4。研究问题15 1.5。划界15 1.6。论文的轮廓16 2。理论框架17 2.1。人工智能技术及其在军事决策过程中的应用17 2.1.1。人工智能的定义17 2.1.1.1。弱AI和强AI 18 2.1.2。AI集成的水平20 2.1.2.1。 人类内部和自治AI 20 2.1.2.2。 Black-Box AI和可解释的AI 20 2.1.3。 军事决策过程22 2.1.4。 军事决策过程中AI技术整合的当代范式23 2.2。 对AI 25 2.2.1的感知,假设,期望和信任。 技术接受模型:扩展到AI 25 2.2.2。 技术帧27 2.2.3。 对AI的信任及其对MCDMP 28 28 2.2.3.1集成的影响。 信任的定义29 2.2.3.2。 信任AI:信任的维度30 2.2.3.3。 信任AI:技术的可信度30 2.3。 结论31 3。 方法论33 3.1。 研究方法:定性研究33 3.1.1。 时间范围34 3.2。 研究设计:选择和选择34 3.3。 数据收集方法35AI集成的水平20 2.1.2.1。人类内部和自治AI 20 2.1.2.2。Black-Box AI和可解释的AI 20 2.1.3。军事决策过程22 2.1.4。军事决策过程中AI技术整合的当代范式23 2.2。对AI 25 2.2.1的感知,假设,期望和信任。技术接受模型:扩展到AI 25 2.2.2。技术帧27 2.2.3。对AI的信任及其对MCDMP 28 28 2.2.3.1集成的影响。信任的定义29 2.2.3.2。信任AI:信任的维度30 2.2.3.3。信任AI:技术的可信度30 2.3。结论31 3。方法论33 3.1。研究方法:定性研究33 3.1.1。时间范围34 3.2。研究设计:选择和选择34 3.3。数据收集方法35
根据“ SFDR授权法规的问和答案(Q&A)(委员会授权法规(EU)2022/1288)”,日期为2022年11月17日,考虑到“ 2023年4月12日的咨询委员会”,欧洲委员会的共同委员会的咨询委员会,授权的第25、26和27点。 (PAI 1除外),所有金融产品的所有直接和间接投资都为投资公司或主权提供资金。
在司法部门增加了人工智能(AI)的使用引起了人们对AI辅助决策是否维护行使司法酌处权的基本价值的关键问题。近年来,法院越来越多地通过AI来提高行政效率并加强司法的机会。1使用AI来提高行政效率包括AI系统,该系统支持法院处理和管理文件,数字记录听证会以及视听链接,使证人能够在没有外表的情况下提供证据。2电子申请,电子审判和电子案例管理系统,使律师能够通过诉讼数据库访问法院文件,被广泛认为是提高行政效率。3然而,尽管各个国家都采用了AI系统来支持决策,但这种使用围绕着很大的焦虑。例如,使用刑事风险评估算法来预测未来的不当行为风险,这引起了人们对问责制,透明和公平过程的担忧。4也担心模拟司法酌处权的AI系统是否可以维护司法决策的基本价值观。5与使用AI有关的法律和政策仍然相对非正式,但尚未发育不足,这一事实突显了这种担忧。
随着人工智能产品的普及,人类和人工智能越来越多地合作做出决策。为了使这种类型的合作取得成功,人类需要了解人工智能的能力,以便有效地校准他们的信任。在这些合作关系中,以人类可以理解的方式解释决策和预测至关重要,以鼓励信任校准。可解释人工智能领域专注于将可解释性融入人工智能,但旨在使人工智能模型更具可解释性。因此,这项研究通常从以模型为中心的角度而不是以人为中心的角度来处理解释。与此同时,行业研究人员已经制定了指导方针,以帮助界面设计师有效地生成用户友好的解释。然而,这些指导方针通常过于宽泛,无法有效指导行业设计师的日常工作。我们的研究通过两种方法解决了这一差距:一个实证实验,研究人们如何回应解释以及哪些类型的解释对信任校准最有帮助;以及一个教育资源,帮助行业设计师了解用户可能有什么问题,以及使用环境如何影响他们可能使用的解释。我们的实验结果表明,解释并不总是有助于信任校准,实际上可能会损害信任校准,尤其是面对自我能力较低的新手用户时。我们对行业设计师进行的探索性访谈和可用性测试表明,人们渴望一种全面但易于访问的教育资源,以转化我们实验等研究并指导可解释的 AI 产品界面的设计。关键词
随着各国政府越来越多地探索和投资人工智能和自动决策系统,我们需要采取措施确保这些快速发展的技术在公共服务的特殊环境中得到适当使用。在许多国家,COVID 创造了一个信任度提高的泡沫,这个泡沫可以说已经破灭了,在一个对公共机构前所未有的不信任的时代(但即使在信任度很高的时代),服务速度更快或更具成本效益是不够的。本文为政府系统(技术平台、运营、文化、治理、参与等)提出了建议,这些建议将有助于提高公众对公共机构、政策和服务的信心和信任,同时履行公共部门的特殊义务和责任。
