详细内容或原文请订阅后点击阅览
AI 聊天机器人表明,它们存在儿童可能错过的“同理心差距”
AI 聊天机器人缺乏对儿童的同理心,导致潜在的伤害。Kurian 博士提出了儿童安全的 AI 框架。文章 AI 聊天机器人表明它们存在儿童可能错过的“同理心差距”,首次出现在《科学探究者》上。
来源:Scientific Inquirer一项研究表明,人工智能 (AI) 聊天机器人经常表现出“同理心缺失”的迹象,这使年轻用户面临痛苦或伤害的风险,这提出了对“儿童安全 AI”的迫切需求。
剑桥大学学者 Nomisha Kurian 博士的这项研究敦促开发人员和政策制定者优先考虑更多考虑儿童需求的 AI 设计方法。它提供的证据表明,儿童特别容易将聊天机器人视为栩栩如生的准人类知己,并且当技术无法满足他们的独特需求和弱点时,他们与技术的互动可能会出错。该研究将这种理解上的差距与最近的案例联系起来,在这些案例中,与 AI 的互动导致年轻用户面临潜在的危险情况。其中包括 2021 年的一起事件,当时亚马逊的 AI 语音助手 Alexa 指示一名 10 岁儿童用硬币触摸带电的电源插头。去年,Snapchat 的 My AI 为假扮为 13 岁女孩的成年研究人员提供了如何将她的童贞交给 31 岁女孩的提示。
这项研究 指导了一名 10 岁女孩 为成年研究人员两家公司都采取了安全措施,但研究表示,还需要长期采取主动措施,以确保人工智能对儿童安全。它提供了一个 28 项框架,帮助公司、教师、学校领导、家长、开发人员和政策参与者系统地思考如何在年轻用户与人工智能聊天机器人“交谈”时保证他们的安全。
Kurian 博士 学习、媒体和技术 学习、媒体和技术处理……
随机鹦鹉