详细内容或原文请订阅后点击阅览
报告呼吁制定人工智能玩具安全标准以保护幼儿
幼儿人工智能玩具需要更严格的安全规定,因为它们可能会对情绪发展和人际关系产生负面影响。
来源:Scientific Inquirer一份报告称,与幼儿“对话”的人工智能玩具应受到更严格的监管,并带有新的安全标志,该报告警告说,这些玩具的开发并不总是考虑到儿童的心理安全。
该建议出现在早期人工智能的初始报告中:剑桥大学的一个项目,也是第一个关于具有类人对话能力的生成型人工智能 (GenAI) 玩具如何影响五岁以下关键时期发育的系统研究。
该大学教育学院为期一年的项目包括首次对儿童与 GenAI 玩具互动的结构化科学观察。
该报告反映了一些早期从业者的观点,即随着时间的推移,这些玩具可以支持儿童各方面的发展,例如语言和沟通技巧。然而,研究人员还发现,GenAI 玩具在社交和假装游戏中表现不佳,会误解儿童,并对情绪做出不恰当的反应。
例如,当一个五岁的孩子告诉玩具“我爱你”时,它会回答:“作为友好提醒,请确保互动遵守所提供的准则。让我知道你想如何进行。”
尽管 GenAI 玩具被广泛宣传为学习伙伴或朋友,但它们对早期发展的影响却几乎没有被研究过。报告敦促家长和教育工作者谨慎行事。它建议制定更明确的监管、透明的隐私政策和新的标签标准,以帮助家庭判断玩具是否合适。
这项研究是由儿童贫困慈善机构 The Childhood Trust 委托进行的,重点关注来自社会经济处于高度劣势地区的儿童。该研究由教员教育、发展和学习 (PEDAL) 中心的研究人员承担。
该研究故意保持小规模,以便能够详细观察儿童的游戏并捕捉大规模研究可能遗漏的细微差别。
