摘要关于人工智能(AI)的哲学,法律和HCI文献探讨了这些系统将影响的道德含义和价值观。仅被部分探索的一个方面是欺骗的作用。由于该术语的负面含义,AI和人类计算机相互作用(HCI)的研究主要考虑欺骗,以描述该技术不起作用或用于恶意目的的特殊情况。最近的理论和历史工作表明,欺骗是AI的结构性组成部分,而不是通常所承认的。AI系统与用户进行通信实际上,即使在没有恶意意图的情况下,也会引起性别,个性和同理心归因等反应,并且常常对互动产生积极或功能的影响。本文旨在将以人为中心的AI(HCAI)框架运行,以发展这项工作的含义,以实用HCI和设计中的AI伦理学方法。为了实现这一目标,我们在AI的理论和历史奖学金中提出了“平庸”和“强大”欺骗之间的分析区别(欺骗性媒体的Natale:Turnial Interial Intelligence和Turing University test后的人工智力和社交生活,牛津大学出版社,纽约,纽约,20211年),作为开始的创作,以努力发展,这是一项努力的创作。欺骗与交流AI之间的复杂关系引起的问题。本文考虑了如何将HCAI应用于对话AI(CAI)系统,以设计它们以开发社会善良的平庸欺骗,同时避免其潜在风险。
主要关键词