与人类同行无缝合作以提高任务效率。在这种情况下,机器人必须具有向人类同事解释其行为的能力,无论是响应系统失败还是意外的环境观察。可解释的AI社区已经迈向了可解释的系统[2、5、10、15、16、32]。可解释的系统可以使用多种方式,包括视觉(例如图形,图像和图)[5,26,43],运动[26,27]和自然语言(例如规则和数字响应)[5,26,43]。在这项工作中,我们研究了基于语言的解释,目的是确定改善它们的方法。随着该领域的发展和发展,重要的是要考虑系统应如何向人们提供信息,例如失败原因。例如,解释其失败的系统改善了信任[17、18、27、44、45],透明度[44],可理解性[11,40,41,44]和团队绩效[44]。的解释必须适应接受者的角色和经验[38],并为非专家提供足够的(但不是压倒性的)细节来理解和对[25]采取行动,以促进迅速的帮助,以解决机器人可能无法自动纠正的异常,以使其无法自动纠正,以改善人类机动体的协作。各种研究[11,40,41]探索了人类机器人相互作用中不同的解释结构。例如,将动作与原因相结合的因果解释增强了可理解性和可取性[40]。在解释中包括失败的原因可以提高可理解性和帮助性[41]。上下文的解释,包括行动历史,使非专家能够检测和解决机器人遇到的错误[11]。这些研究[11,40,41]的重点是反应性系统[11 - 13,22,24,30,44]产生的解释,这些解释在发生故障后响应并检测出故障。尽管对于不可预见的失败至关重要,但可以预测,预防或至少将许多故障视为可能。相比之下,与反应性系统相比,主动系统检测,处理和解释错误,可能会提高机器人的安全性和效率。一些主动系统在机器人能力之外识别任务[4,36]或解释机器人行为[50],但我们的重点是能够在任务执行过程中识别失败的主动系统(例如[3,14])。主动系统确定会发生故障时,它可以使用确定解释中预期失败的信息。大多数用户研究都集中在用于机器人故障解释的反应性系统上[11,40,41],但主动系统中错误检测的时机以及可用的信息深度可能会导致更好的人类机器人相互作用。
由于在线共享的信息量不断增加以及生成式人工智能 (AI) 的作用,人工验证变得非常具有挑战性。因此,人工智能系统用于在线识别虚假信息和深度造假。先前的研究表明,将人工智能与人类专业知识相结合时可以观察到卓越的性能。此外,根据欧盟人工智能法案,在可能影响基本人权(例如言论自由权)的领域使用人工智能系统时,人类监督是不可避免的。因此,人工智能系统需要透明并提供足够的解释才能被理解。已经进行了大量研究以整合可解释性 (XAI) 特征来提高人工智能系统的透明度;然而,它们缺乏以人为本的评估。此外,解释的意义因用户的背景知识和个人因素而异。因此,本研究实施了以人为本的评估方案,以评估人机协作虚假信息检测任务的不同 XAI 特征。在此,客观和主观评价维度(例如性能、感知有用性、可理解性和对 AI 系统的信任度)用于评估不同的 XAI 特征。进行了一项用户研究,总共有 433 名参与者,其中 406 名众包工作者和 27 名记者作为专家参与检测虚假信息。结果表明,自由文本解释有助于提高非专家的表现,但不会影响专家的表现。XAI 特征提高了对 AI 系统的感知有用性、可理解性和信任度,但它们也可能导致众包工作者在 AI 系统的预测错误时盲目信任它。
透明度对于促进理解、信任、公平和问责至关重要,应体现在开发和使用人工智能系统所涉及的流程的清晰度、开放性和可理解性上。我们用通俗易懂的语言向所有受人工智能系统影响的个人(例如员工、候选人和同事)公开、清晰地传达人工智能的使用情况。我们清楚地描述了此类技术的功能、优势、预期用途、局限性和使用的数据,并对任何自动化结果和决策提供简单的解释。我们确保允许提供人工干预的可能性,以便人类能够合理地理解、质疑和验证人工智能系统的决策标准和输出。首先,让最终用户提前知道他们何时直接与人工智能系统交互。我们还优先使用更简单、更容易解释的模型,只要这不影响其有效性。
(2) 合同条款是否经过谈判;(3) 寻求救济的双方当事人是否合理可行的通过谈判变更或删除合同条款;(4) 合同条款是否附加不合理条件;(5) 合同一方当事人是否因为年龄、身心障碍而能够维护自己的利益;(6) 双方当事人的相对经济状况、教育背景和文化水平;(7) 合同的形式和可理解性;(8) 寻求救济的一方当事人是否获得了独立建议;(9) 向寻求救济的一方当事人解释合同的程度,以及寻求救济的一方当事人对合同的理解程度;(10) 寻求救济的一方当事人是否受到不当影响、不公平压力或不公平策略;(11) 双方当事人在类似交易中的行为;以及 (12) 合同的商业背景。6
尤其是在人寿和健康保险领域,新法规高度重视所用人工智能系统的治理、文档记录、透明度和输出解释。根据他们的执业标准,精算师必须谨慎对待他们的工作和他们使用的模型,在新人工智能法规出台之前也是如此。精算师可以凭借他们的经验在系统的可解释性方面发挥重要作用,并为人工智能系统的透明度和可理解性创造先决条件。精算行业具有独特的优势,完全习惯于在新法规的实施中发挥核心作用,这得益于其在实施 Solvency II 和 IFRS17/9 方面的专业知识,以及其在风险管理、合规性、模型验证、数据治理和质量方面的专业知识。
UCAI 2020 研讨会将讨论人机交互 (HCI) 和人工智能 (AI) 交叉领域的主题,旨在加强人工智能系统设计中的以用户为中心的方面。一个主要主题在于通过使智能和自适应系统更加透明、可解释和可理解来赋予用户权力。从用户和活动中心的角度设计与智能系统的交互是除了检查最终系统输出之外吸引用户的另一个基本问题,从而使基于人工智能的系统在其众多应用环境之一中更具交互性、有效性、可理解性和可问责性。抵消数据和算法中的潜在偏见是提高可信度和公平性的另一个重要目标。在评估基于人工智能的系统方面,在可接受性和用户体验、问责制和道德影响方面仍然存在方法论上的差距。
本基本招股说明书已获得荷兰金融市场管理局 (Autoriteit Financiële Markten,简称“AFM”) 批准,该机构是《招股说明书条例》下的主管当局。AFM 仅批准本基本招股说明书符合《招股说明书条例》规定的完整性、可理解性和一致性标准。此类批准不应被视为对发行人的认可,也不应被视为对本基本招股说明书所涉票据质量的认可。投资者应自行评估投资此类票据的适宜性。本基本招股说明书的发布日期为 2022 年 10 月 7 日,自批准之日起有效期为十二个月,有效期至 2023 年 10 月 7 日。为避免疑义,发行人无需在本基本招股说明书 12 个月有效期结束后补充本基本招股说明书。
本注册文件已于 2023 年 3 月 24 日获得荷兰金融市场管理局 (AFM) 批准,该机构根据《招股说明书条例》第 20 条的规定担任主管当局。本注册文件连同发行人不时补充或更换的任何非股权证券证券票据(每份为“证券票据”),在每种情况下,均构成发行人任何招股说明书的一部分,该招股说明书由《招股说明书条例》所定义的有关相关证券的单独文件组成(本注册文件连同相应的证券票据,在每种情况下为“招股说明书”)。AFM 仅批准本注册文件符合《招股说明书条例》规定的完整性、可理解性和一致性标准。此类批准不应被视为对本注册文件所针对的发行人的认可。
基于人工智能(AI)的语言模型可能是科学工作,学术研究和研究的非常有用的工具。这可能涉及集思广益并获得感兴趣的主题,科学报告和论文的初始结构以及摘要,校正和表达援助,翻译等。提高澄清,可理解性和科学工作的完整性。但是,使用基于AI的语言模型和聊天机器人需要仔细检查输出文本的逻辑,上下文,事实和来源保真度,因此需要一定水平的用户专业知识来评估AI输出。AI的使用不会从对内容的责任中释放出任何用户,如果AI输出在科学写作中使用。使用AI-AD生成的文本和内容迫使学生完全记录并披露AI对他们的科学工作的贡献(报告,论文等)根据下面的准则。