摘要 社交媒体中的仇恨言论是一个日益严重的问题,会对个人和整个社会产生负面影响。社交媒体平台上的版主需要技术支持来检测有问题的内容并做出相应的反应。在本文中,我们开发并讨论了最适合为使用人工智能 (AI) 协助人类版主的决策支持系统创建高效用户界面的设计原则。我们对三个设计周期内的各种设计方案进行了定性和定量评估,共有 641 名参与者。除了测量感知易用性、感知有用性和使用意图外,我们还进行了一项实验,以证明 AI 可解释性对最终用户感知的认知努力、感知的信息量、心理模型和 AI 可信度的重大影响。最后,我们与软件开发人员一起测试了获得的设计知识,他们对所提出的设计原则的可重用性评价为高。
3 套用 David 和 Wright (1999) 的话,这个问题也可以这样问:机器人技术与人工智能的关系是否相当于发电机与电气化的关系?事实上,对于 David 和 Wright (1999) 来说,发电机代表着 Bresnahan 和 Trajtenberg (1985, p. 84) 意义上的“使能技术”,即一种“开辟新机遇而不是提供完整、最终解决方案”的新设备。
摘要研究表明,非专家用户倾向于过度信任或不信任人工智能系统。当人工智能应用于医疗保健时,这引起了人们的担忧,患者信任不可靠系统的建议或完全不信任可靠系统的建议可能会导致致命事故或错过医疗保健机会。先前的研究表明,解释可以帮助用户对人工智能系统的信任做出适当的判断,但如何在医疗支持场景中为非专家用户设计人工智能解释界面仍然是一个悬而未决的研究挑战。本文探讨了一个基于阶段的参与式设计过程,以在人工智能医疗支持场景中为非专家开发一个值得信赖的解释界面。值得信赖的解释是一种帮助用户对医疗保健是否信任人工智能系统做出深思熟虑的判断的解释。本文的目的是确定可以有效地为值得信赖的解释界面的设计提供信息的解释组件。为了实现这一目标,我们进行了三次数据收集,研究了专家和非专家对人工智能医疗支持系统解释的看法。然后,我们开发了一个用户心理模型、一个专家心理模型和一个目标心理模型,描述了非专家和专家如何理解解释,他们的理解有何不同,以及如何将它们结合起来。基于目标心理模型,我们提出了一套 14 条解释设计指南,用于可信的人工智能医疗系统解释,这些指南考虑到了非专家用户的需求、医疗专家的实践和人工智能专家的理解。
关于 ESIA:欧洲半导体行业协会 (ESIA) 是欧洲半导体行业的代言人。其使命是代表和促进欧洲半导体行业向欧洲机构和利益相关者的共同利益,以确保可持续的商业环境并提高其全球竞争力。作为关键使能技术的提供商,该行业为工业发展创造了创新解决方案,促进了经济增长并应对了重大社会挑战。欧洲半导体生态系统被欧盟委员会列为研发最密集的行业之一,它直接支持了约 200,000 个就业岗位,并在欧洲系统、应用和服务领域创造了多达 1,000,000 个就业岗位。总体而言,微电子和纳米电子技术至少创造了欧洲和世界 GDP 的 10%。
对用于解决组合优化问题的 CIM 算法进行基准测试 姓名:○ Gneiting Clemens (1,2)、Khoyratee Farad (1) 和 Rinaldi Enrico (1,2) 日本理化学研究所实验室:(1) 先驱研究集群、理论量子物理实验室
本文从经济角度概述了政治边界的理论和实证研究。它回顾了针对公共良好规定经济经济和规模经济之间的权衡的理论和规模,以及偏好对公共政策的偏好以及影响这一权衡的因素,例如民主化,国际开放性和冲突。它还回顾了政治融合和瓦解的理论,这些理论着重于经济不平等,重新分配政策以及资源的地理分布。最后,本文讨论了最近的实证研究,阐明了异质性,冲突和边界之间的关系。这一研究是关于文化变量与经济和政治成果之间相互作用的越来越多的文献的一部分。