摘要 人工智能 (AI) 继续改变着企业与客户之间的互动。然而,目前的人工智能营销代理往往被认为是冷漠和无情的,无法很好地替代人际互动。针对这一问题,本文认为,人工同理心需要成为下一代人工智能营销应用中的一个重要设计考虑因素。我们借鉴不同学科的研究,开发了一个系统框架,将人工同理心融入到人工智能营销互动中。我们详细阐述了人工同理心的关键组成部分以及如何在人工智能营销代理中实现每个组成部分。我们进一步阐明和测试了人工同理心如何通过弥合人工智能与人类在情感和社交客户体验方面的差距来为客户和企业创造价值。认识到人工同理心可能并不总是可取或相关的,我们确定了人工同理心创造价值的要求,并推断出人工同理心不必要的情况,在某些情况下甚至是有害的。
人工智能 (AI) 的进步使系统能够增强并与人类协作,以执行简单的机械任务,例如安排会议和检查文本语法。然而,这种人机协作对更复杂的任务(例如进行共情对话)提出了挑战,因为人工智能系统在处理复杂的人类情感方面面临困难,并且这些任务具有开放性。在这里,我们专注于同理心对成功至关重要的同理心点对点心理健康支持,并研究人工智能如何与人类协作以在文本、在线支持对话中促进同理心。我们开发了 HAILEY,这是一种 AI-in-the-loop 代理,可提供即时反馈,帮助提供支持的参与者(同理心支持者)对寻求帮助的人(支持寻求者)做出更具同理心的回应。我们在大型在线点对点支持平台 TalkLife (N = 300) 上对现实世界的同伴支持者进行了一项非临床随机对照试验,以评估 HAILEY。我们表明,我们的人机协作方法使同伴之间的对话同理心总体上提高了 19.6%。此外,我们发现,在自我认定为在提供支持方面遇到困难的同伴支持者子样本中,同理心增加了 38.9%。我们系统地分析了人机协作模式,发现同伴支持者能够直接和间接地使用人工智能反馈,而不会过度依赖人工智能,同时报告反馈后的自我效能有所提高。我们的研究结果表明,反馈驱动的 AI 在环写作系统具有帮助人类完成开放式、社交性和高风险任务(例如同理心对话)的潜力。
摘要 在之前的工作中,我们试图描述“值得信赖的人工智能”(Varshney 2022,Knowles 等人。2022)。在这项工作中,我们研究了似乎对我们的(人类)可信度做出判断的人工智能系统的案例,并探究了在何种条件下我们可以信任人工智能系统适当地信任我们。我们认为,无法接受他人的观点(以下称为“同理心缺陷”)既可以解释也可以证明我们对人工智能的不信任,因为人工智能的任务是预测人类(不)可信度的可能性。例子包括使用人工智能来预测假释和保释资格、学术诚信和信誉。人类希望确保对我们的可信度的判断基于对我们的理由和独特情况的某种程度的同理心理解。人工智能无法采纳我们的主观观点,这使我们对人工智能系统对人类可信度的评估的信任产生怀疑。
尽管有重大的技术创新和突破性,但现代教育的主要障碍之一是,许多学生和老师继续发现这是没有灵感的。全球COVID-19引起的临时变化使在线教育以及许多新方法和进一步的研究更加吸收。仍然,老师报告说,许多学生未能努力参加在线课程。学生分心且缺乏专注,与物理教室中的传统出勤相比,他们的学习成就急剧下降(Guo,2020; Serhan,2020)。根据Weldon等人的说法。(2021),在线教育的主要问题是对技术的可访问性和教育材料的质量。Papanastasiou等。(2019)认为沉浸式技术可以改善长期记忆力保留,内容理解,协作技能,学习者之间的个体差异以及失败的课堂整合。沉浸式技术可以迅速促进学生的21世纪学习技能(例如,沟通,协作,批判性思维和创造力),因为它们有可能以自由,灵活和弱智的方式以虚拟对象和虚拟环境的形式表现,创造,操纵,导航和与虚拟对象和虚拟环境进行互动。本文首先在第1章中介绍了研究问题,中心概念和论文概述。他们能够与全世界的其他人以及非玩家角色(NPC)互动,这些角色是人工智能的代理人,能够在虚拟学习环境中模拟类似人类的智力,并刺激其交流,协作和社交技能。受到洞察力的启发,即虚拟角色可能会受到学生的同情和容易接受的洞察力,该论文的一般研究问题旨在解释虚拟角色在视觉上有效地设计的手段,以支持沉浸式技术中的沟通和协作技能。
引用本文 请注意,如果 King's Research Portal 上提供的全文是作者接受的手稿或后印刷版本,则可能与最终发布的版本不同。如果引用,建议您检查并使用出版商的最终版本以获取分页、卷/期和出版日期详细信息。如果在研究门户上提供最终发布的版本,如果引用,建议您再次检查出版商的网站以进行任何后续更正。一般权利 研究门户中提供的出版物的版权和道德权利由作者和/或其他版权所有者保留,并且用户访问出版物的条件是承认并遵守与这些权利相关的法律要求。
预测(F 1 = 0.91)具有高效的能源使用,并且可以使用特征重要性检查进行解释。此外,人工智能代理对人类人口统计数据保持中立,同时能够揭示个人特质。因此,这项研究的贡献包括有证据的结果,这些证据仅限于可用的人口和数据样本,表明某些年龄范围与性别组合之间存在行为差异。主要贡献是一个用于研究人类情绪价在情境中变化的新平台。该系统可以补充和取代(最终)传统的长列表自我评估问卷。SensAI + Expanse 平台贡献了几个部分,例如能够适应和学习以高性能预测情绪价状态的移动设备应用程序(SensAI),云计算(云)服务(SensAI Expanse)具有面向 AutoML 的随时可用的分析和处理模块。此外,智能手机传感为持续、非侵入性和个性化的健康检查做出了贡献。在未来,发展
同情心高低——或者根本没有同情心?一般人群表现出的同情心水平差异很大,这取决于个人和情况。“我们知道基因差异会影响你的同情心水平,但只要告诉你目睹痛苦的人与你有很多共同之处,同情心也会增加——另一方面,如果你被告知他们是竞争对手,同情心就会减少,”瓦莱丽亚说。“还有证据表明,你可以训练自己变得更有同情心,最终改变你自己的大脑活动。这让我们能够灵活地适应环境,并有责任做出正确的社会决策。”
摘要 —我们认为,可解释的人工智能必须拥有其决策的基本原理,能够推断观察到的行为的目的,并能够在受众理解和意图的背景下解释其决策。为了解决这些问题,我们提出了四个新颖的贡献。首先,我们根据感知状态定义任意任务,并讨论可能解决方案领域的两个极端。其次,我们定义内涵解决方案。根据某些智能定义,它是最佳的,它描述了任务的目的。拥有它的代理根据该目的对其决策有基本原理,并以基于硬件的感知符号系统来表达。第三,要传达该基本原理,需要自然语言,即一种编码和解码感知状态的方式。我们提出了一种意义理论,其中,为了获得语言,代理应该模拟语言描述的世界,而不是语言本身。如果人类的话语对代理的目标具有预测价值,那么代理将根据自己的目标和感知状态赋予这些话语以意义。在皮尔士符号学的背景下,代理社区必须共享符号、指称项和解释项的粗略近似值才能进行交流。意义只存在于意图的背景下,因此要与人类交流,代理必须具有可比的经验和目标。一个学习内涵解决方案的代理,在类似于人类动机的目标函数(如饥饿和痛苦)的驱使下,可能不仅能够根据自己的意图,而且能够根据受众的理解和意图来解释其原理。它形成了对人类感知状态的某种近似。最后,我们引入镜像符号假设,该假设认为,在类似人类的强迫下,代理作为内涵解决方案的一部分学习的符号表现得像镜像神经元。根据普遍的推测,这些神经元可能在促进同理心方面发挥重要作用。索引术语 — 内涵型人工智能、可解释型人工智能、同理心型人工智能
结构,因此往往具有多个层次结构,术语可归入这些层次结构中。因此,本体可以看作是一组分类法,用于明确区分术语之间的关系或关联类型。本体可以表达许多不同类型的关系,包括每个术语的特征/品质以及断言或规则。本体不像树,更像图 22(网络理论)。这种区别非常重要。本体的创建者识别并建立模型,解释给定本体中的事物如何相互关联、存在的关系类型以及模型规则。如果本体提供了足够的信息,它可以描述概念模型。• 逻辑理论是一种分类系统,其中一组公理、一组定理和一个
人工智能和机器人领域的负责任研究与创新 (RRI):一种关系方法,用于实现思想和机器的后人类共情 20 世纪 80 年代末开始的对人类基因组计划的伦理、法律和社会影响 (ELSI) 的研究,到 2010 年左右成为美国联邦预算的一项。ELSI 研究成为美国和欧盟政府科技机构自我反思的一部分;负责任的研究与创新 (RRI) 的道德理想已成为一种专业规范。1 这个历史性的例子是跨学科可能性的愿景,它指导了以下提议,即在思想和机器计划中系统地整合技术和道德,并作为纽约大学对这些问题的持续承诺的一部分。2 人工智能和机器人研究与人类基因组计划非常相似,并且肯定会从类似的处理中受益。RRI 提供了一种事后应对新技术影响的趋势的替代方案:它关注社会影响“上游”的设计问题和实施前的初始条件。RRI 在实施阶段的“中游”中也非常有效。在信息科学和技术的情况下,上游和下游之间的距离相对较短,中游干预的价值变得更加明显。3 对初始条件的敏感性是所有复杂自适应系统的一个特征——在任何希望整合人类和非人类系统的系统研究中都必须考虑到这一事实。中游发展阶段的亚稳态中介和过渡结构往往呼应了对初始条件的系统敏感性:它们易受干扰,因此容易受到一定程度的调节和管理。中游调节增强了道德干预的有效性 中游 RRI 在跨学科计划(如“心智与机器”)的情况下也具有强大的潜在影响。中游调节的实验室民族志研究表明,将社会科学家和人文研究人员嵌入科学和工程实验室可以增强反思方法实践和协调,从而使上述学科领域受益。4 一个非常适合当代人工智能和机器人研究跨学科性质的哲学框架是本体结构现实主义 (OSR) 5 。过程哲学与复杂自适应系统的一致性为设计和自然系统的稳健跨标量集成提供了进一步的本体论基础。以新康德哲学及其与过程形而上学的亲缘关系为基础的 OSR 具有根本的关系基础,它提供了适应性的概念能力,以应对技术的快速发展及其社会影响。科学和工程中的仿生 6 范式在这个方向上取得了有趣的进展。在伦理信息理论、神经科学、社会网络理论、生态学、系统理论和气候模型的交叉点上,生态模拟范式即将出现;这可能成为“环境人工智能”和机器人技术新方法的沃土。半个世纪前,克拉克和库布里克在《2001:太空漫游》中设想了环境人工智能,即 HAL, 7 并在斯皮尔伯格的《少数派报告》中重新构想为一个完全沉浸式的安全和商业环境。在现实生活中,IBM 和其他公司继续开发人机协作系统,这可以被视为生态模拟范式的初稿。虽然仍处于推测阶段,但由本地化和分布式机器人组成的自主自学型人工智能可以在日托环境中像婴儿一样被抚养长大。人工智能代理和人类之间精心策划的互动可以共同创造一个自组织生物的世界,其生态相互依存构成了后人类同情的有机基础。总结:基于认知责任 8 和社群伦理的自我限制是后人类同情的先决条件,这种同情可以为人类、非人类和人工智能代理之间的未来互动奠定基础。在精心策划的环境中,对负责任的创新模型进行自我学习、自我限制系统的训练,为新形式的共同生成的知识生产打开了大门,这些知识生产能够认识并响应人类和非人类价值观的处境。