本论文研究了不同的用户界面 (UI) 设计如何影响用户对生成式人工智能 (AI) 工具的信任。我们进行了一项实验,采用绿野仙踪方法测试了三种具有不同 ChatGPT UI 变体的工具的信任级别。来自不同学科的九名志愿大学生参加了实验。我们使用问卷来评估参与者在与每种工具交互后以及与所有工具交互后的信任感知。结果表明,参与者之间的信任水平受到生成式 AI 的 UI 设计的影响,尤其是头像设计和文本字体。尽管共享相同的文本源,但大多数参与者认为 ChatGPT 与其他工具相比最值得信赖。结果还强调了对话界面在与生成式 AI 系统建立信任方面的重要性,参与者表示更喜欢促进自然和引人入胜的交互的界面。该研究强调了 UI 对信任的重大影响,旨在鼓励对生成式 AI 更加谨慎的信任。
摘要 用户对人工智能 (AI) 系统的信任已得到越来越多的认可,并被证明是促进采用的关键因素。有人提出,支持人工智能的系统必须超越以技术为中心的方法,转向以人为本的方法,这是人机交互 (HCI) 领域的核心原则。本评论旨在概述 23 项实证研究中的用户信任定义、影响因素和测量方法,以收集未来技术和设计策略、研究和计划的见解,以校准用户与人工智能的关系。研究结果证实,定义信任的方法不止一种。选择最合适的信任定义来描述特定环境中的用户信任应该是重点,而不是比较定义。研究发现,用户对人工智能系统的信任受到三个主要主题的影响,即社会伦理考虑、技术和设计特征以及用户特征。用户特征在研究结果中占主导地位,强调了从开发到监控人工智能系统的过程中用户参与的重要性。研究还发现,用户和系统的不同环境和各种特征也会影响用户信任,强调了根据目标用户群的特征选择和定制系统功能的重要性。重要的是,社会伦理考虑可以为确保用户与人工智能互动的环境足以建立和维持信任关系铺平道路。在衡量用户信任方面,调查是最常用的方法,其次是访谈和焦点小组。总之,在使用或讨论支持 AI 的系统的每个情况下,都需要直接解决用户信任问题。此外,校准用户与 AI 的关系需要找到不仅对用户而且对系统都适用的最佳平衡。
67 为了充分描述实验程序或概念,本文件中可能会标识某些商业实体、设备或材料。69 此类标识并不意味着国家标准与技术研究所的推荐或认可,也不意味着实体、材料或设备一定是可用于此目的的最佳实体、材料或设备。72 73 74 75 76 77 78 79 80 81 82 国家标准与技术研究所 NISTIR 8332-draft 83 Natl.Inst.Stand.Technol.NISTIR 8332-draft 84 29 页(2021 年 3 月) 85 86 本草案出版物可从以下网址免费获取: 87 https://doi.org/10.6028/NIST.IR.8332-draft 88 89 90 91 92 93 94 请将对本文档的评论发送至:AIUserTrustComments@nist.gov 95
摘要 - 质量自治有望彻底改变广泛的工程,服务和流动性行业。超密集的自主代理之间的协调复杂的沟通需要新的人工智能(AI)在第五代(5G)和第六代(6G)移动网络中实现无线通信服务的管弦乐队。在特定的安全和任务关键任务中,合法需要透明的AI决策过程,以及一系列人类最终用户(消费者,工程师,法律)的量化质量质量质量(QOT)指标。我们概述了6G的值得信赖的自主权的概念,包括基本要素,例如可解释的AI(XAI)如何产生信任的定性和定量方式。我们还提供了与无线电资源管理和相关的关键绩效指标(KPI)集成的XAI测试协议。提出的研究方向将使研究人员能够开始测试现有的AI优化算法,并开发新的算法,认为应该从设计到测试阶段内置信任和透明度。
•和第三,如果不使用EPIC选项,我们将研究连接到EPIC系统的辅助系统和相关部门,例如PACS以及可能的放射学,实验室或药房系统。这些辅助系统是医院的合作伙伴组织,可能存在遗传的风险,或者是与Epic接触的内部医院申请。但是,今天可能无法将代理放置在设备上以启用保护,因此,仅使用Epic桥接的辅助系统与EPIC的接口,因此可以利用这些策略性接口限制访问权限。
将您的劳动力与您的公司的可持续发展旅程一起。您可以通过有关战略可持续性优先事项的研讨会来做到这一点,并利用组织的可持续发展爱好者网络。也重要的是传达公司正在实现的可持续性里程碑。通过将可持续性倡议的结果与运营领域(例如碳排放和废物生产的来源)或道德业务实践指标相关联,使其对您的员工进行了真实。
随着人工智能产品的普及,人类和人工智能越来越多地合作做出决策。为了使这种类型的合作取得成功,人类需要了解人工智能的能力,以便有效地校准他们的信任。在这些合作关系中,以人类可以理解的方式解释决策和预测至关重要,以鼓励信任校准。可解释人工智能领域专注于将可解释性融入人工智能,但旨在使人工智能模型更具可解释性。因此,这项研究通常从以模型为中心的角度而不是以人为中心的角度来处理解释。与此同时,行业研究人员已经制定了指导方针,以帮助界面设计师有效地生成用户友好的解释。然而,这些指导方针通常过于宽泛,无法有效指导行业设计师的日常工作。我们的研究通过两种方法解决了这一差距:一个实证实验,研究人们如何回应解释以及哪些类型的解释对信任校准最有帮助;以及一个教育资源,帮助行业设计师了解用户可能有什么问题,以及使用环境如何影响他们可能使用的解释。我们的实验结果表明,解释并不总是有助于信任校准,实际上可能会损害信任校准,尤其是面对自我能力较低的新手用户时。我们对行业设计师进行的探索性访谈和可用性测试表明,人们渴望一种全面但易于访问的教育资源,以转化我们实验等研究并指导可解释的 AI 产品界面的设计。关键词
Trusted Science and Technology Inc.,诉Nicholas Evancich等人。nos。38&1437,9月术语。2023 Leahy的意见,J。证人>令人信服的证词>传票>寻求证词的相关性,实质性和可接受性;必要性> nonorties一个人(包括非政党)根据马里兰州规则2-510(f)对抗的能力表明,传票所寻求的发现超过规则2-402的界限,包括所寻求的发现与行动中所涉及的主题无关。]” MD。规则2-402(a)。证人>令人信服的证词>传票>寻求证词的相关性,实质性和可接受性;必要性> nontarties巡回法院在不考虑上诉人非政党的反对意见的情况下,违反了上诉人非政党的生产犯了错误。
注:*12 项网络弹性行动包括:向外部利益相关者(监管机构、投资者)报告;建立弹性团队,成员来自业务连续性、网络、危机管理等职能部门;与当地执法部门建立关系,以协助分析和响应;确定关键业务流程;为 IT 损失场景制定网络恢复剧本;与主要技术提供商建立协议以协调事件响应;进行桌面练习和模拟;通过正式流程与业内同行共享信息,以防止系统性风险;实施网络恢复技术解决方案(包括不可变备份);映射技术依赖关系;实施工具以提高运营技术(OT)资产的可见性;部署量子计算以实现网络防御和弹性。
Moor,M.,Banerjee,O.,Abad,Z.S.H。等。通才医学人工智能的基础模型。自然616,259–265(2023)。https://doi.org/10.1038/s41586-023-05881-4 Chen,Dongping,Yue Huang,Siyuan Wu,Jingyu Tang,Liuyi Chen,Yilin Bai,Yilin Bai,Zhigang He等。“ GUI-WORLD:针对GUI为导向多模式LLM的代理的数据集。”Arxiv预印型ARXIV:2406.10819(2024)。
