人工智能聊天机器人对孩子不好

据国际研究人员称,许多孩子认为人工智能聊天机器人基本上是人类,但目前的机器人无法保证他们的安全。在亚马逊 Alexa 意外地告诉一名 10 岁女孩将一枚硬币插入电源插座取乐的事件发生后,研究人员调查了更新、更复杂的聊天机器人如何因无法理解儿童而带来类似的风险。通过回顾现有的人机交互研究,研究人员提出了一系列儿童安全人工智能建议,包括内容过滤器、将困难的对话转交给人类、帮助儿童区分人工智能和人类以及让学校和家庭参与儿童使用人工智能。

来源:Scimex

国际研究人员表示,许多儿童认为人工智能聊天机器人基本上就是人类,但目前的机器人无法保证他们的安全。在亚马逊 Alexa 意外地告诉一名 10 岁女孩将硬币插入电源插座取乐的事件发生后,研究人员调查了更新、更复杂的聊天机器人如何因无法理解儿童而带来类似的风险。通过回顾现有的人机对话研究,研究人员提出了一系列儿童安全人工智能建议,包括内容过滤器、将困难的对话转交给人类、帮助儿童区分人工智能和人类以及让学校和家庭参与儿童使用人工智能。

期刊/会议:学习、媒体和技术

期刊/会议:

研究链接 (DOI): 10.1080/17439884.2024.2367052

研究链接 (DOI): 10.1080/17439884.2024.2367052

组织: 英国剑桥大学

组织:

媒体发布

来自:

泰勒弗朗西斯集团

人工智能聊天机器人已经表明他们存在儿童可能忽略的“同理心差距”

人工智能聊天机器人已经表明他们存在儿童可能忽略的“同理心差距”很可能会错过 新研究提出了一个“儿童安全人工智能”框架,此前发生的事件表明,许多儿童认为聊天机器人是准人类和值得信赖的。 新研究提出了一个“儿童安全人工智能”框架,此前发生的事件表明,许多儿童认为聊天机器人是准人类和值得信赖的。 研究 指导一名 10 岁儿童 给成年研究人员 Kurian 博士 学习、媒体和技术 学习、媒体和技术 随机鹦鹉 最近的研究 同一项研究 单独报告的互动 研究