I.总结彗星希望抓住一个问题,该问题似乎不充分考虑到公共研究的世界,即所谓的“社会”机器人,更准确地说,与日常生活中这些工具不断增长有关的认知和心理影响。聊天机器人,对话代理和其他用人工智能技术编程的宠物机器人,并嵌入到一系列连接的对象中 - 计算机,电话,手表,汽车 - 现在是日常环境不可或缺的一部分。或越来越多的数量是通过情感逻辑设计的,可以充当伴侣,知己,朋友,健康或福祉教练,或取代已故的关闭(Deadbot)。他们经常使用人类特异性属性(语言,外观,态度),能够通过人类模型(声音,语音,语调,手势,面部表情)与使用者互动,并且使用音频或摄像头,假装发现他们的情绪(您难过吗?您看起来很着急!)并自己模拟他们(与用户哭泣,与他笑,祝贺他等)。然后,用户倾向于归因于机器人类能力(智慧,良心,仁慈,同理心),将自己投射到与之的情感互动中,以形成与之之间的亲密和信心纽带的幻觉,甚至与之息息相关。虽然意识到这种现象会引起某些好处,但彗星与个人和集体的影响有关,这可能会导致情绪依赖,成瘾,抓地力,操纵,与他人的互动,甚至与他人的互动等相互作用等。遵守各种高管(CNPEN,CERNA,法律和道德文学等)已经提出的建议,一方面是社会机器人的工业家和工程师设计师,另一方面是公共当局。尤其是以周到和负责任的方式开发这些设备从设计中开发的问题,以避免对用户进行任何操纵,以告知任何与机器人进行交流的人,因为他们与机器对话,以避免发生恶意操纵的技术可能性,机器人对机器人的威胁,对情绪的剥削,与人的综合性和自动性相反,等等。彗星认为有必要特别呼吁警惕研究人员,学习的社会和公共研究机构,并在两个标题中呼吁。一方面,无论是在CNR,Inria,CEA,在各种大学中,计算机科学,机器人技术,行为科学,语言处理中的一定作品,有助于巩固用户对社交机器人的依恋现象,而没有足够的对目的和影响的影响。另一方面,公共研究具有遵循和衡量使用社会机器人的长期后果的领导作用。如果寻求提高人机界面以获得更好的“承诺”,则有必要质疑与机器人的拟人化相关的缺点(就外观和行为而言)以及随之而来的情感和心理影响。现在大规模使用后者,这是衡量认知影响,心理,用户的行为,从后者到他人和世界的关系的问题;建立必要的知识基础来应对与使用这些工具相关的挑战,并确保负责任和自由使用。
主要关键词