替代他选择的贝迪德(Bidden),而没有求助于他的两个或多个同伴何时在竞争性或双赢的情况下从事同样的壮举。关于家庭,企业和政府做出决定的问题的问题已被视为经济学的主要重点,但是出现了关于行业中的企业如何控制该行业商品的价格或以其他方式控制价格或数量的家庭,家庭中的两个人如何合理地将他们的思想合理化以使他们能够获得最高的壮举,并如何控制自己的经济学,并将其与对方置于对抗性方面,并如何控制自己的思想,并将其置于对手方面的范围,并将其与对方进行侵略,并将其置于对手方面的范围中,并将其置于对抗中,并将其置于对抗中的范围。超越它们?这些以及更多的人诞生了合理化的思想,而不仅仅是拟人化,而是要在选择后做好选择,而选择成为主导的下属的主导地位。
这项工作旨在作为先前主张的讨论中的声音,即基于变压器模型体系结构的验证大型语言模型(LLM)可能是一种陈述。已经对LAMDA模型提出了此类主张,也是关于LLM驱动的聊天机器人(例如Chatgpt)的当前浪潮的。如果确认,由于广泛使用类似模型,该主张将在自然语言处理(NLP)社区中产生严重的影响。但是,在这里,我们认为这样的大语言模型无法意识到,尤其是LAMDA比其他类似的模型没有任何进步。我们通过通过综合信息理论分析变压器架构来证明这一点。我们将感性的主张视为在NLP报告中使用拟人化语言的更广泛倾向的一部分。不管主张的真实性如何,我们认为这是一个合适的时机,可以盘点语言建模的进步并考虑任务的道德含义。为了使这项工作对NLP社区以外的读者有所帮助,我们还提出了语言建模的必要背景。
当前的社会挑战超出了人类单独或集体运作的能力。随着AI的发展,其在人类集体中的作用将从辅助工具到参与式成员各不相同。人类和AI具有互补的能力,可以共同超过人类或AI的集体智慧。但是,人AI系统中的相互作用本质上是复杂的,涉及复杂的过程和相互依赖性。本综述结合了复杂网络科学的观点,以概念化人类集体智能的多层代表,包括认知,物理和信息层。在这个多层网络中,人类和AI代理具有不同的特征。人类的多样性从表面级别到深层属性有所不同,而AI代理的功能和拟人化范围都在范围内。我们探讨了代理商的多样性和互动如何影响系统的集体智慧,并分析了AI增强集体智能的现实世界实例。我们通过考虑该领域的潜在挑战和未来发展来得出结论。
摘要 人工智能和机器人技术的快速发展将对社会产生深远的影响,因为它们将干扰人们及其互动。智能自主机器人,无论是否是人形/拟人化的,都将具有物理存在,做出自主决策,并以尚未预见的方式与社会中的所有利益相关者互动。与这种复杂机器人的共生可能会导致根本性的文明转变,并产生深远的影响,因为机器人的意识、公民身份、权利和法人实体等哲学、法律和社会问题将被提出。这项工作的目的是通过从法律、社会、经济、性别和道德等不同角度调查法律、机器人和社会之间的相互作用,以了解与法律和社会有关的广泛潜在问题。结果表明,在与智能自主机器人共生的时代,法律体系以及社会都没有为它们的盛行做好准备。因此,现在是开始多学科利益相关者讨论并针对最突出的问题制定必要的政策、框架和路线图的时候了。
本文从正电子脑与人脑的类比入手,以聂振钊文学伦理批评的框架为载体,运用“脑文本”概念,推测“机器人三定律”代表着伦理体系的基本指导原则。本文以正电子脑与人脑的类比为重点,结合《完整的机器人》(2018)的分析,认为正电子脑通过汇集、计算编程后的脑文本,体现了人类伦理选择的特质。通过提出复制与真实的伦理问题,进一步凸显了高度拟人化的大脑作为拟像的怪异感,对人类中心主义提出了新的挑战,也引发了对人类主体性的忧虑。然而,由于脑文本中缺乏伦理判断,机器人在三定律的选择面前,可能会陷入矛盾,只能化身为人的欲望。因此,阿西莫夫秉持着对人类特权的坚持,认为正电子脑的本质是对人脑的模拟,以代表人类的伦理道德。
这项工作旨在作为先前主张的讨论中的声音,即基于变压器模型体系结构的验证大型语言模型(LLM)可能是一种陈述。已经对LAMDA模型提出了此类主张,也是关于LLM驱动的聊天机器人(例如Chatgpt)的当前浪潮的。如果确认,由于广泛使用类似模型,该主张将在自然语言处理(NLP)社区中产生严重的影响。但是,在这里,我们认为这样的大语言模型无法意识到,尤其是LAMDA比其他类似的模型没有任何进步。我们通过通过综合信息理论分析变压器架构来证明这一点。我们将感性的主张视为在NLP报告中使用拟人化语言的更广泛倾向的一部分。不管主张的真实性如何,我们认为这是一个合适的时机,可以盘点语言建模的进步并考虑任务的道德含义。为了使这项工作对NLP社区以外的读者有所帮助,我们还提出了语言建模的必要背景。
摘要 - 成功采用工业机器人将在很大程度上取决于他们在人类环境中安全有效运作,进行自然交流,了解用户并直观地表达意图的能力,同时避免了不必要的干扰。要达到这种高级人类机器人互动(HRI)的高级水平,机器人需要征服并结合其用户的任务和环境的知识,并采用多模式的交流方法,并结合语音,运动,凝视和其他方式的表现力提示。本文介绍了几种设计,增强和评估非类人生物工业机器人的表达性HRI系统的方法。我们提出了一个小型拟人化机器人的概念,该机器人是其非类人生物宿主的代理,例如叉车。我们使用视线跟踪和运动捕获来量化用户如何看待机器人并衡量任务进度,为该机器人开发了一个多模式和LLM增强的通信框架,并在几个实验室实验中进行了评估。
本章综合并讨论了公众对人工智能 (AI) 的看法。从规范的角度来看,了解公民和消费者对人工智能的态度非常重要,因为公众是塑造技术未来的主要利益相关者,应该在政策讨论中拥有发言权。此外,这项研究可以帮助我们预测未来的政治和消费者行为。全球调查数据显示,公众对人工智能的认识越来越高;然而,与人工智能研究人员不同,他们倾向于将人工智能拟人化。人口差异与对人工智能的信任度抽象相关:居住在东亚的人对人工智能的信任度更高,而不同地区的女性和社会经济地位较低的人对人工智能的信任度较低。针对特定人工智能应用的调查,包括面部识别技术、个性化算法、致命自主武器和工作场所自动化,增加了这一研究主题的复杂性。在本章的最后,我为未来的研究提出了三个新的方向:了解 1)机构声誉如何影响对人工智能的信任,2)增加一个人对人工智能的经验和知识如何影响态度,以及 3)对人工智能的态度如何影响个人的行为。
构建能够进行自然和长时间对话的对话代理一直是一项重大的技术和设计挑战,尤其是对于面向社区的对话代理而言。我们提出相互心智理论作为设计自然的长期人机交互的理论框架。从这个角度来看,我们通过在线教育背景下的自我报告调查和计算语言学方法探索社区对问答对话代理的看法。我们首先研究学生对 Jill Watson (JW) 的看法的长期时间变化,JW 是部署在在线课堂讨论论坛中的虚拟教学助理。然后,我们探讨通过从学生-JW 对话中提取的语言特征推断学生对 JW 的看法的可行性。我们发现,随着时间的推移,学生对 JW 的拟人化和智力的感知发生了显著变化。回归分析表明,语言的冗长性、可读性、情感、多样性和适应性反映了学生对 JW 的感知。我们讨论了构建面向社区的自适应对话代理作为长期伴侣以及在人机交互中设计相互心智理论的意义。
摘要 - 本文反映了过去24个月完成的四项研究,包括胡椒,帕罗,所有猫和狗的欢乐,米罗,pleo,pleo,padbot和更便宜的玩具,包括i)焦点小组和对适当的机器人宠物设计的访谈,ii)对机器人宠物的伦理互动以及iii唱片的互动互动以及一定的机器人之间的互动和一定的互动。在分析的研究中,总共包括371位参与者的观点。数据被审查并开采,以与形态类型在健康和社会护理中的使用和影响相关。结果表明,生物形态设计比机械态更可取,语音和生命模拟特征(例如呼吸)受到了良好的接受。拟人化表现出在唤起变质设计缺乏的恐惧和任务预测的局限性。因此,熟悉的,动物形态的外观与动画,生命模拟和语音能力的结合似乎是为健康和社会护理开发的未来机器人的研究领域。