人工智能 (AI) 辅助决策的研究正在经历巨大的增长,越来越多的研究评估了使用和不使用可解释人工智能 (XAI) 领域的技术对人类决策表现的影响。然而,由于任务和实验设置因目标不同而不同,一些研究报告称通过 XAI 提高了用户的决策表现,而另一些研究报告称影响微乎其微。因此,在本文中,我们使用统计荟萃分析对现有 XAI 研究进行了初步综合,以得出现有研究的启示。我们观察到 XAI 对用户表现有统计上的积极影响。此外,第一批结果表明,人机决策往往会在文本数据上产生更好的任务表现。然而,与单一的人工智能预测相比,我们发现解释对用户的表现没有影响。我们的初步综合引发了未来研究调查根本原因,并有助于进一步开发通过提供有意义的解释有效造福人类决策者的算法。
摘要。随着机器学习越来越多地用于辅助决策,人们要求这些决策是可解释的。可以说,最可解释的机器学习模型使用决策规则。本文重点介绍决策集,这是一种具有无序规则的模型,它用单个规则解释每个预测。为了便于人类理解,这些规则必须简洁。早期关于生成最佳决策集的工作首先最小化规则数量,然后最小化文字数量,但得到的规则通常会非常大。在这里,我们考虑一个更好的衡量标准,即决策集的总大小(以文字为单位)。因此,我们不会被一组需要大量文字的小规则所驱使。我们提供了第一种方法来确定实现最小经验风险的最小规模决策集,然后研究稀疏替代方案,以牺牲准确性换取规模。通过找到最佳解决方案,我们可以构建几乎与最佳启发式方法一样准确的决策集分类器,但更加简洁,因此更具可解释性。
在这项工作中,我们研究了基于特征的解释对人工智能辅助决策分配公平性的影响,特别关注从简短的文本简历中预测职业的任务。我们还研究了任何影响是如何通过人类的公平感知及其对人工智能建议的依赖来调节的。我们的研究结果表明,解释会影响公平感知,而公平感知又与人类遵守人工智能建议的倾向有关。然而,我们发现这样的解释并不能让人类辨别正确和不正确的人工智能建议。相反,我们表明,无论人工智能建议的正确性如何,它们都可能影响依赖性。根据解释强调的特征,这可能会促进或阻碍分配公平:当解释强调与任务无关且显然与敏感属性相关的特征时,这会提示覆盖与性别刻板印象相符的 AI 建议。同时,如果解释看起来与任务相关,这会引发依赖行为,从而强化刻板印象一致的错误。这些结果表明基于特征的解释不是提高分配公平性的可靠机制。
摘要:随着人工智能技术的不断发展,利用机器学习技术预测市场走势或许不再是遥不可及的事情。近年来,人工智能成为学术界的研究热点,在图像识别、自然语言处理等领域得到广泛应用,对量化投资领域也产生了巨大的影响。量化投资作为一种通过数据分析、模型构建、程序化交易获得稳定收益的投资方式,深受金融机构和投资者的喜爱。同时,作为量化投资的重要应用领域,基于人工智能技术的量化投资策略应运而生。如何将人工智能运用到量化投资中,从而更好地实现盈利和风险控制,也成为研究的重点和难点。从全球来看,美国和美联储的通胀都是投资者关注的焦点,在一定程度上影响着包括中国股市在内的全球资产的走向。本文研究AI技术、量化投资以及AI技术在量化投资中的应用,旨在为投资者提供辅助决策,降低投资分析的难度,帮助投资者获得更高的收益。
在本文中,我们介绍并在两个现实的环境中进行测试,即协作脑部计算机界面(CBCIS),它们可以显着提高感知组决策的速度和准确性。这项工作的主要区别特征是:(1)我们的CBCIS结合了行为,生理和神经数据,以便能够在最快的团队成员进行投票后的任何时间提供小组决定,但CBCI-CASS辅助决策的质量可以单调地提高小组决策的时间越长; (2)我们将CBCIS应用于军事相关性的两个现实情况(巡逻黑暗的走廊并在夜间用户需要识别出任何出现的任何身份不明的角色的前哨站),其中决策是基于通过视频供稿传达的信息; (3)我们的CBCIS利用与事件相关的电位(ERP)通过出现潜在威胁引起的大脑活动引起,但独特的是,该系统是自动估计的(而不是不切实际地提供)。由于这些元素,在两个测试环境中,由我们的CBCIS辅助的小组比以更传统的方式整合了单个决策时,使我们的CBCIS辅助更为准确,更快。
人工智能算法辅助在高风险决策中的应用越来越多,这引起了人们对可解释人工智能 (xAI) 的兴趣,以及反事实解释在增加人机协作信任和减轻不公平结果方面的作用。然而,在理解可解释人工智能如何改善人类决策方面,研究还很有限。我们进行了一项在线实验,共有 559 名参与者参与,利用“算法在环”框架和现实世界的审前数据,研究从最先进的机器学习解释方法(通过 DiCE 的反事实解释和通过 SHAP 的事实解释)生成的算法审前风险评估的解释如何影响决策者对累犯的评估质量。我们的结果表明,反事实和事实解释实现了不同的理想目标(分别改善人类对模型准确性、公平性和校准的评估),但仍未提高人类预测的综合准确性、公平性和可靠性——重申了 xAI 对社会技术、实证评估的需求。我们最后讨论了用户对 DiCE 反事实解释的反馈,以及我们的结果对人工智能辅助决策和人工智能的更广泛影响。 xAI。
在司法部门增加了人工智能(AI)的使用引起了人们对AI辅助决策是否维护行使司法酌处权的基本价值的关键问题。近年来,法院越来越多地通过AI来提高行政效率并加强司法的机会。1使用AI来提高行政效率包括AI系统,该系统支持法院处理和管理文件,数字记录听证会以及视听链接,使证人能够在没有外表的情况下提供证据。2电子申请,电子审判和电子案例管理系统,使律师能够通过诉讼数据库访问法院文件,被广泛认为是提高行政效率。3然而,尽管各个国家都采用了AI系统来支持决策,但这种使用围绕着很大的焦虑。例如,使用刑事风险评估算法来预测未来的不当行为风险,这引起了人们对问责制,透明和公平过程的担忧。4也担心模拟司法酌处权的AI系统是否可以维护司法决策的基本价值观。5与使用AI有关的法律和政策仍然相对非正式,但尚未发育不足,这一事实突显了这种担忧。
摘要。随着大数据时代(BD)的出现,人们面临着大规模数据和复杂问题的挑战。这些数据并为决策者提供准确,及时的决策支持已成为当前研究中的热门问题。以营销决策为例,本文基于深度学习(DL)构建了BD分析和计算机辅助决策支持系统(DSS)。首先,系统通过数据预处理和功能提取提取与原始数据营销相关的功能。然后,DL模型用于学习和预测特征,并获得了营销策略的优化方案。最后,通过模拟实验测试了决策系统的实际应用效果,这证明了该方法的可行性和优势。通过采用DL模型,并比较模糊C聚集(FCM)算法和决策树(DT)算法,本文中的算法是稳定性测试中最稳定的算法,可以提供有效且稳定的决策支持。此外,本文中的算法在实时分析中也具有很大的优势,该算法可以快速处理大量数据并满足实时决策的需求。这些优势使基于DL的智能DSS具有广泛的应用前景,并且可以为实践决策问题提供强有力的支持。
她说,衡量和管理他们对 AI 的使用。第一个关键步骤是了解组织中 AI 的使用地点。Boisvert 解释道:“他们需要知道他们是聊天机器人还是人工智能,他们使用的哪些医疗仪器得到了人工智能增强。”“他们之所以需要意识到这一点非常重要,是因为如果你在患者身上使用仪器,你需要了解其功能,还需要了解需要注意的风险。”Boisvert 说,有两件事使这成为医疗保健领域的独特挑战。首先,大多数提供商或风险管理者从未接受过任何高级计算方面的教育。其次,目前没有专门针对人工智能的商业保险产品。Boisvert 说:“远程医疗首次出现时,许多专业责任公司为远程医疗增加了附加条款或语言,但我们在人工智能方面并没有看到这一点。”“我认为,辅助决策的程序比视频会议软件的风险要大得多。组织必须考虑其当前政策是否涵盖了这一点。” Boisvert 表示,AI 风险管理应从最早考虑将 AI 引入临床过程开始。她建议在购买 AI 时使用 NIST 框架,并指出它应该仅作为辅助手段引入
本文探讨了我们计算社会的方式的最新转变(Cardon 等人,2018 年)。使用计算技术来辅助决策并不是什么新鲜事。长期以来,计算方法一直被用于对个人进行排名和选择,例如,借助计算机脚本来验证表单是否符合确定性决策规则。随着机器学习 (ML) 工具的出现,这些方法为决策者在处理结合了越来越多的实体和事件列表的文件时的不确定性时产生的困惑提供了技术解决方案。面对文件提供的用于围绕不同原则进行定位的多种参考点,决策者可能会感到无助。他们的决策质量更容易受到批评(Hahn & Tetlock,2005),理由多种多样:他们优先考虑某些标准;他们的社会同质性掩盖了结构性偏见;他们没有注意到可能导致其他结果的变量的多样性;等等。面对分散而庞大的文件,引入基于机器学习模型的自动化工具来辅助决策,建议用统计概率取代不稳定的决策依据。当候选比较空间变得难以理解时,这些工具会对变量进行排序。如今,统计分数的引入方式截然不同,具体取决于领域。它有时采用的只是文件中的一条附加信息,例如在美国法官批准保释的决定中预测重复犯罪的可能性;或者它可以具有更大的自动化程度,例如将警察引导到犯罪更频繁的地方(Brayne & Christin,2020 年)。正如关于人工智能使用的立法草案所表明的那样,结果的自动化问题是监管机构寻求“让人类参与其中”的主要干预点之一(Jobin 等人,2019 年)。本文建议将计算方法的这种转变与社会对统计类别日益增长的批评联系起来,我们称之为社会类别危机。我们认为,决策向机器学习的转变得益于基于类别的方法(使用标准的规则等)无法涵盖世界事件的多样性和多样性1。最后,我们认为这种转变延续了数据空间更普遍的时空扩展。机器学习技术的出现带来了统计文化的变化,值得关注(Breiman,2001)。这些方法的特殊性之一是它们事先并不知道决策规则;它们从数据中学习。要建立这种类型的模型,必须使用由输入数据(文件)和先前决策的输出结果组成的数据集(训练数据库)来训练算法。然后通过反复试验调整模型,使基于训练的预测误差尽可能小(Goodfellow 等,2016)。如果模型是基于输入和输出数据之间的对应关系来学习的,那么决策规则就不能再以先验稳定和自动的基于标准的依据为基础。控制选择的模型是对与给定目标相关的文件变量的最佳比较方法的统计近似。传统的呈现此类模型设计的操作的方式是定义三个独立的空间(Cornuéjols 等,2018;Mitchell,1997)。输入数据构成观察空间,计算结果构成决策空间。在这两者之间,计算的设计者必须想象一个假设空间(有时也称为