由大语言模型承保的高度能力的对话代理的开发有可能以深刻的方式塑造用户与这项技术的互动,尤其是当技术是拟人化或类似于人类的技术时。尽管拟人化AI的影响通常是良性的,但拟人化设计功能也会带来新的风险。例如,用户可以与类似人类的AI建立情绪连接,从而产生通过过度依赖来侵犯用户隐私和自主权的风险。为了更好地理解拟人化AI系统的可能陷阱,我们做出了两个贡献:首先,我们表达了过去嵌入了交互式系统中的拟人化特征,并利用了这种先验来突出拟人化表征的当前影响。第二,我们提出了研究方向,以告知拟人化AI的道德设计。在进行AI负责任的发展时,我们将方法推广到通过用户与拟人化AI相互作用引起的伦理远见,评估和缓解危害的方法。
摘要 - 人类的手是生物学的非凡壮举,具有许多关节和肌肉的同时,具有出色的多功能性和精度。它使我们能够以极大的力量处理复杂的工具。然而,它保留了柔软,安全且屈服于精致物体的性质。强大的强度和柔和的合规性融合使其成为无与伦比的操纵仪器。但是,试图模拟这一点的机器人之手通常属于两个类别之一:软或刚性。柔软的手,虽然符合性和安全性缺乏人类手的精度和力量。相反,虽然刚性机器人的手可以与人体的精确性和力量相匹配,但它们是脆弱的,不符合其环境。我们提出的解决方案是建立一个机器人手,弥合这两个类别之间的差距。我们称此手DLA手,一种灵巧的,$ 3000,简单的拟人化软手,非常灵巧且多才多艺。首先,它通过3D打印的软外部与3D打印的内部骨结构相结合,达到了人体手状的柔软度和刚度的平衡。接下来,DLA手在可折叠的棕榈中结合了两个动力的表达:一个横跨四个手指,另一只手指靠近拇指,模仿了类似人类的握把的基本棕榈灵活性。最后,DLA
。CC-BY-NC-ND 4.0 国际许可证下可用(未经同行评审认证)是作者/资助者,他已授予 bioRxiv 永久展示预印本的许可。它是此预印本的版权持有者此版本于 2024 年 6 月 13 日发布。;https://doi.org/10.1101/2022.06.18.496679 doi:bioRxiv 预印本
近年来,增强学习(RL)已成为一种有力的工具,可在光网络(例如路由和波长分配(RWA)[1]等光网络中解决复杂而染色的优化问题[1],路由,调制和频谱分配(RMSA)[2]以及虚拟网络嵌入[3]。RL实现的性能效果表明其在现实世界中的应用潜力。但是,与其他机器学习(ML)算法类似,RL模型具有黑盒性质,使它们难以解释。这种特征使RL模型难以信任,因此在实际的光网部署中采用。对于监督的ML模型,Shap(Shapley添加说明)[4]是一种可解释的AI方法,已被广泛采用。Shap是一种基于合作游戏理论的方法,用于量化单个特征对模型决策过程的影响。Shap值提供了对每个功能的相对重要性(影响)的见解,从而估算了它们如何对模型的输出做出贡献。将这种解释性框架应用于传播质量(QOT)预测任务时,已显示出有希望的属性[5]。最近,由于需要解释和使RL模型的决策过程透明的驱动,可解释的RL(XRL)受到了越来越多的关注。在光网络的上下文中,XRL的概念仍然相对尚未探索。先前建议通过反向工程网络状态[6]或网络中资源使用分析(链接)来解释和解释RL模型的决策[1,7]。但是,这些研究并未分析不同特征如何影响RL药物的决策。因此,在光网络背景下,RL代理学到的政策仍然存在一段差距。这至关重要,因为网络运营商需要在其在实际网络中部署之前了解RL学习策略背后的推理。在这项工作中,我们旨在利用Shap(Shapley添加说明)[4]来解释应用于RMSA问题的RL模型的行为。为此,我们提出了一种使用训练有素的RL代理的观察和行动来以有监督的学习方式训练ML模型的方法。由Shap使用所得的ML模型来提取解释。与[2]中的RMSA问题的每个组件分别求解,RL代理解决路由问题,基于路径长度的调制格式选择以及基于第一拟合策略的频谱分配。我们分析了该问题的三种变化,改变了奖励函数和选择RL代理的不可行的动作的可能性。我们特别有兴趣解释重要的网络和LightPath请求特征,该特征导致RL模型拒绝该请求。结果允许我们确定哪些功能和哪些值范围影响RL代理接受或拒绝LightPath请求。我们观察到,通过更改奖励功能,RL策略会更改拒绝请求时所考虑的重要功能。引入了防止RL模型采取不可行的措施的掩码,使功能的重要性更加均匀地分布在不同的路由选项上。我们认为,提出的方法对于增加将在真实网络中部署的RL模型的可信度可能是有价值的。
人类对拟人化的天生倾向。我们不禁以独特的人类方式思考非人类,在非人类中“看到”类似人类的特征,并做出相应的反应[1]。,但是这些推论可能会产生误导。推断我们回家时很高兴见到我们是很安慰的,也许很自然。这样的推论对于我们的宠物狗来说似乎是合理的。,但对我们的宠物岩石来说却不太如此。随着复杂的AI的出现,技术人工制品的拟人化已经变得广泛[2,3]。这不是最不重要的,因为这种技术通常被设计为像人类一样。的确,在许多情况下,这就是推动他们成功的原因。流行的基于LLM的Convertion App replika获得了知名度,因为它对用户感到与人交谈的感觉。replika用户认为他们的replika具有某些人类属性,例如情感的能力(例如,爱情,欲望,狂热,善良和悲伤)。这部分是因为聊天机器人伴随着类似人类的头像。,这也是因为它有能力维持人级对话并使用第一人称代词,Ben Schneiderman和Micheal Muller对[4]批评了GPT-4。
魏森鲍姆一生中的大部分时间都在警告人们将人类特质投射到人工智能上会带来危险。本论文同样通过主要关注人工智能拟人化的一些负面伦理后果,对人工智能的拟人化进行了研究。对这些后果进行详尽的分析几乎是不可能的,但通过关注拟人化作为一种炒作形式和谬论,本文表明了拟人化如何夸大了人工智能系统的能力和性能,以及扭曲了对它们的一系列道德判断。本文的结构如下。在第一部分,本文解释了拟人化的含义,以及这种现象在人工智能领域的一些表现方式。本文重点指出拟人化是围绕人工智能的炒作的一个组成部分。在这种情况下,炒作被理解为对人工智能能力和性能的歪曲和夸大,而炒作的组成部分则被理解为炒作的一部分。在第二部分中,本文表明拟人化通过其谬误性扭曲了道德判断。它通过关注人工智能的四个核心道德判断来说明这一点:关于其道德品质和地位的判断,以及关于对人工智能的责任和信任的判断。第三部分通过提供简短的总结和结论结束了这项工作。* Adriana Placani adrianaplacani@fcsh.unl.pt
Khalil Israfilzade Kauno Kolegija高等教育机构摘要:这项研究研究了在会话营销的背景下生成人工智能与拟人化之间的相互联系。 这项研究强调了生成AI的变革潜力以及拟人化的关键作用在近年来追踪对话式营销的发展来增强用户体验中的关键作用。 本文介绍了一个新颖的矩阵,该矩阵突出了不同程度的生成AI和拟人化对对话营销成果的影响。 该矩阵是学者和行业专业人员的宝贵工具。 它为潜在的协同作用提供了深刻的见解,以及将不同的AI复杂水平与不同程度的拟人化设计相结合而产生的挑战。 这项研究强调了在这两个要素之间达到平衡的重要性,以确保最佳的客户参与和营销策略功效。 来自矩阵的每个象限的实际示例进一步揭示了现实世界的含义,从而对未来的研究方向有了全面的了解。 关键字:对话营销,数字营销,生成性AI,拟人化,人工智能介绍当今动态的商业环境中,对话性营销是一种变革性的方法,重塑了企业与客户互动的方式。 从历史上看,营销策略在很大程度上是一维的(Sinha&Singh,2018),企业在广播他们的信息和客户被动地接收它们的情况下。Khalil Israfilzade Kauno Kolegija高等教育机构摘要:这项研究研究了在会话营销的背景下生成人工智能与拟人化之间的相互联系。这项研究强调了生成AI的变革潜力以及拟人化的关键作用在近年来追踪对话式营销的发展来增强用户体验中的关键作用。本文介绍了一个新颖的矩阵,该矩阵突出了不同程度的生成AI和拟人化对对话营销成果的影响。该矩阵是学者和行业专业人员的宝贵工具。它为潜在的协同作用提供了深刻的见解,以及将不同的AI复杂水平与不同程度的拟人化设计相结合而产生的挑战。这项研究强调了在这两个要素之间达到平衡的重要性,以确保最佳的客户参与和营销策略功效。来自矩阵的每个象限的实际示例进一步揭示了现实世界的含义,从而对未来的研究方向有了全面的了解。关键字:对话营销,数字营销,生成性AI,拟人化,人工智能介绍当今动态的商业环境中,对话性营销是一种变革性的方法,重塑了企业与客户互动的方式。从历史上看,营销策略在很大程度上是一维的(Sinha&Singh,2018),企业在广播他们的信息和客户被动地接收它们的情况下。但是,新技术的兴起和客户期望的变化导致范式转向营销方法,这些方法对每个人都更加互动和量身定制。因此,其中一个被称为“对话营销”,它重点是公司与客户之间的实时,有意义的对话,其目标是建立更深入的联系和更个性化的体验(Sotolongo&Copulsky,2018年; Israfilzade; Israfilzade,2021; 2023; 2023; 2023; 2023)。这项研究的主要目标是彻底研究生成AI与拟人化的相互作用,并解码其对对话营销领域的综合影响。该研究旨在首先解开对话营销的关键原则和进化路径。随后,它打算评估生成AI在制定会话营销策略中的重要作用和影响。调查以呈现一个综合矩阵的介绍结束,该矩阵结合了不同级别的生成AI和拟人化,从而对它们对对话性营销实践的影响提供了详细的看法。为了实现上述目标,本研究采用了全面的文献综述方法。通过研究无数的学术文章,期刊和以前的研究工作,该研究旨在对该主题进行整理,分析和介绍整体观点。演示文稿的逻辑遵循一种结构化的方法,首先是对会话营销的概述,然后深入探索生成的AI和拟人化和拟人化,并在引入矩阵的矩阵中最终封装了研究的核心发现。
拟人化,即把类似人类的特征赋予非人类实体的倾向,在许多社会背景下都很普遍——儿童将玩具拟人化,成人将品牌拟人化。它在科学上也是一个多功能工具,行为心理学和进化生物学一丝不苟地记录了它的后果。随着人工智能系统的广泛采用,以及通过对齐技术、人类声音和化身使其变得像人类的推动,用户将其拟人化的倾向显著增加。我们采用二元方法来理解这种现象,使用大型语言模型 (LLM),通过研究 (1) 客观的法律含义,通过最近的人工智能权利法案蓝图的视角进行分析,以及 (2) 定制和拟人化的微妙心理方面。我们发现,针对不同用户群定制的拟人化法学硕士违反了立法蓝图中的多项规定,并引发了法人资格的混乱。此外,我们指出,法学硕士的拟人化会影响其对用户的影响,从而产生操纵和负面影响的可能性。由于法学硕士针对儿童和患者等弱势群体进行了超个性化,我们提出了一种保守的策略,谨慎使用拟人化来提高人工智能系统的可信度。
摘要 目的——本文旨在探讨“人工智能(AI)如何影响消费者信息披露?”这一总体研究问题。它考虑了人工智能的拟人化、个性化和隐私问题如何影响消费者的态度并鼓励他们披露自己的私人信息。 设计/方法/方法——本研究借鉴个性化-隐私悖论(PPP)和隐私演算理论(PCT)来解决研究问题,并研究人工智能如何影响消费者信息披露。提出人工智能的拟人化和个性化对消费者向数字助理披露个人信息的态度和意图产生积极影响,而隐私问题则对态度和信息披露产生负面影响。 研究结果——本文基于七个研究命题(RP)建立了一个概念模型,并提出了未来研究的方案。 原创性/价值——基于 PPP 和 PCT,本文从消费者的角度介绍了人工智能的优点和缺点。本文通过批判性地反思人工智能如何影响消费者信息披露的问题,为文献做出了贡献。此外,还概述了与人工智能相关的隐私和消费者信息披露相关的七个 RP 和未来研究领域。
机器学习和自然语言处理的进步推动了虚拟会话剂(VCAS)的日益普及。这种拟人化通信方法依赖于VCAS的用户信息共享和实时反馈,并引起了隐私问题,同时影响了Teractions和Teractions和关系中的各种社交。先前关于减少用户隐私问题的研究主要集中在用户信息挖掘,敏感的用户信息请求和隐私政策上,而对人类机器社会层次结构的合作伙伴和仆人的拟人化角色知之甚少。因此,这项研究基于社会层面上的人类计算机互动(服务)拟人化,开发了一个框架,以研究信息敏感性和VCAS的拟人化作用的影响,包括伴侣和仆人,包括伴侣和仆人对用户的隐私问题,以及基于能力和基于综合的信任的中介作用。结果表明,当请求高度敏感的信息时,合作伙伴VCA的用户隐私问题比仆人VCA更大,反之亦然。与此同时,当VCA要求高度敏感的信息时,基于诚信的信任调解了仆人VCAS与隐私问题之间的关系,当VCA请求低敏性信息时,基于能力的信任调解了相同的关系。这些见解为经理提供了可行的影响。