摘要 由于最近人工智能技术 (AIET) 的普及,拟人化概念(技术中的人类相似性)越来越受到研究人员的关注。研究人员研究了拟人化如何影响用户对 AIET 的感知、采用和持续使用。然而,研究人员尚未就如何在 AIET 中概念化和操作化拟人化达成一致,这导致了不一致的研究结果。因此,需要全面了解 AIET 背景下拟人化研究的现状。为了对拟人化文献进行深入分析,我们回顾了 35 项实证研究,重点关注概念化和操作化 AIET 拟人化及其前因和后果。根据我们的分析,我们讨论了潜在的研究差距并为未来的研究提供了方向。
拟人化,即把类似人类的特征赋予非人类实体的倾向,在许多社会背景下都很普遍——儿童将玩具拟人化,成人将品牌拟人化。它在科学上也是一个多功能工具,行为心理学和进化生物学一丝不苟地记录了它的后果。随着人工智能系统的广泛采用,以及通过对齐技术、人类声音和化身使其变得像人类的推动,用户将其拟人化的倾向显著增加。我们采用二元方法来理解这种现象,使用大型语言模型 (LLM),通过研究 (1) 客观的法律含义,通过最近的人工智能权利法案蓝图的视角进行分析,以及 (2) 定制和拟人化的微妙心理方面。我们发现,针对不同用户群定制的拟人化法学硕士违反了立法蓝图中的多项规定,并引发了法人资格的混乱。此外,我们指出,法学硕士的拟人化会影响其对用户的影响,从而产生操纵和负面影响的可能性。由于法学硕士针对儿童和患者等弱势群体进行了超个性化,我们提出了一种保守的策略,谨慎使用拟人化来提高人工智能系统的可信度。
摘要 本文的核心兴趣是拟人化社交机器人 Ai-Da(Aidan Meller 画廊/牛津大学),它被视为文化和表征手势相互作用的参与者。这些手势决定了该机器人的呈现方式,即如何表达、解释和推广其活动。本文批评了在围绕该机器人的呈现策略中使用跨历史话语,因为这种话语强化了所谓的“机器神话”。讨论的重点是这个绘画机器人的个性化和体现。有人认为,为 Ai-Da 提供令人回味的硅胶脸和拟人化的身体是一种社会政治决定,它塑造了公众对社交机器人的普遍想象。
魏森鲍姆一生中的大部分时间都在警告人们将人类特质投射到人工智能上会带来危险。本论文同样通过主要关注人工智能拟人化的一些负面伦理后果,对人工智能的拟人化进行了研究。对这些后果进行详尽的分析几乎是不可能的,但通过关注拟人化作为一种炒作形式和谬论,本文表明了拟人化如何夸大了人工智能系统的能力和性能,以及扭曲了对它们的一系列道德判断。本文的结构如下。在第一部分,本文解释了拟人化的含义,以及这种现象在人工智能领域的一些表现方式。本文重点指出拟人化是围绕人工智能的炒作的一个组成部分。在这种情况下,炒作被理解为对人工智能能力和性能的歪曲和夸大,而炒作的组成部分则被理解为炒作的一部分。在第二部分中,本文表明拟人化通过其谬误性扭曲了道德判断。它通过关注人工智能的四个核心道德判断来说明这一点:关于其道德品质和地位的判断,以及关于对人工智能的责任和信任的判断。第三部分通过提供简短的总结和结论结束了这项工作。* Adriana Placani adrianaplacani@fcsh.unl.pt
摘要。本文对拟人化牙齿机器人领域的现代发展及其在实践教育中的使用进行了回顾。该研究的目的是评估机器人拟人化的身体和功能方面,它们对学生的心理测量特征的影响以及对技术数据发展的前景分析。工作讨论了拟人化机器人的关键组成部分,例如运动传感器,系统识别系统和语音综合,以及使用云技术来提高教育过程的有效性的可能性。结果表明,拟人化机器人有助于改善教育技术,加深对教育材料的理解以及学生之间专业技能的发展。然而,注意到需要进一步研究的技术挑战,包括改善运动的现实主义,语音互动和感觉系统的整合。假定数据处理和云服务的进一步开发将有助于创建更具互动性和适应性的教育平台,这将增加学生的参与和满意度。
人类对拟人化的天生倾向。我们不禁以独特的人类方式思考非人类,在非人类中“看到”类似人类的特征,并做出相应的反应[1]。,但是这些推论可能会产生误导。推断我们回家时很高兴见到我们是很安慰的,也许很自然。这样的推论对于我们的宠物狗来说似乎是合理的。,但对我们的宠物岩石来说却不太如此。随着复杂的AI的出现,技术人工制品的拟人化已经变得广泛[2,3]。这不是最不重要的,因为这种技术通常被设计为像人类一样。的确,在许多情况下,这就是推动他们成功的原因。流行的基于LLM的Convertion App replika获得了知名度,因为它对用户感到与人交谈的感觉。replika用户认为他们的replika具有某些人类属性,例如情感的能力(例如,爱情,欲望,狂热,善良和悲伤)。这部分是因为聊天机器人伴随着类似人类的头像。,这也是因为它有能力维持人级对话并使用第一人称代词,Ben Schneiderman和Micheal Muller对[4]批评了GPT-4。
由大语言模型承保的高度能力的对话代理的开发有可能以深刻的方式塑造用户与这项技术的互动,尤其是当技术是拟人化或类似于人类的技术时。尽管拟人化AI的影响通常是良性的,但拟人化设计功能也会带来新的风险。例如,用户可以与类似人类的AI建立情绪连接,从而产生通过过度依赖来侵犯用户隐私和自主权的风险。为了更好地理解拟人化AI系统的可能陷阱,我们做出了两个贡献:首先,我们表达了过去嵌入了交互式系统中的拟人化特征,并利用了这种先验来突出拟人化表征的当前影响。第二,我们提出了研究方向,以告知拟人化AI的道德设计。在进行AI负责任的发展时,我们将方法推广到通过用户与拟人化AI相互作用引起的伦理远见,评估和缓解危害的方法。
摘要 - 引入了人类手臂和拟人化操纵剂之间的运动学映射,以转移人类的技能并完成类似人类的行为,以控制拟人化的操纵剂。大数据和机器学习的可用性有助于模仿拟人化机器人控制。在本文中,提出了一种机器学习驱动的人类技能,以控制跨倍形操纵器。拟议的深卷积神经网络(DCNN)模型利用旋转运动重建方法模仿类似人类的行为,以实现快速和有效的学习。最后,训练有素的神经网络被翻译成管理拟人机器人机器人的冗余优化控制。这种方法还适用于具有拟人化运动结构的其他冗余机器人。
目的 脑大小和生长研究历史悠久,且充满争议,但正常的脑容量发育尚未得到充分描述。特别是,正常的脑生长和脑脊液 (CSF) 积聚关系至关重要,因为它会受到儿童早期多种疾病的影响,这些疾病会影响脑生长和液体积聚,例如感染、出血、脑积水和多种先天性疾病。本研究的作者旨在描述正常的脑容量增长,特别是在脑脊液积聚的情况下。 方法 作者分析了 505 名健康儿童受试者从出生到 18 岁的 1067 次磁共振成像扫描,以量化脑的组成部分和区域体积。使用平滑样条方差分析比较了不同性别和不同半球的体积轨迹。使用位置、规模和形状的广义加性模型开发了人口增长曲线。 结果 脑容量在 10-12 岁时达到峰值。男性的年龄调整后总脑容量大于女性,体型标准化程序并未消除这一差异。然而,脑体积与脑脊液体积的比率揭示了一种普遍的年龄相关关系,与性别或体型无关。结论这些发现使得规范生长曲线能够应用于管理各种儿童疾病,这些疾病与认知发展、脑部生长和体液积聚相互关联。