详细内容或原文请订阅后点击阅览
学校使用的人工智能应该“检测学习者困扰的迹象”
教育部更新了有关情感、社交和认知发展以及“操纵”的人工智能指导学校使用的人工智能应该“检测学习者痛苦的迹象”的帖子首次出现在“学校周”上。
来源:Schools Week此主题的更多内容
最近的文章
新的政府指南指出,学校使用的人工智能 (AI) 应留意学生的“困扰”迹象,并标记有关保护线索的行为。
教育部长布里奇特·菲利普森 (Bridget Phillipson) 今天宣布,政府更新了去年发布的人工智能安全预期,“以应对新出现的危害”。
新添加的部分详细介绍了学校使用的人工智能工具必须如何保护儿童的心理健康、认知、情感和社交发展,并防止操纵。
菲利普森今天在伦敦举行的全球人工智能安全峰会上发表讲话时表示,更新后的标准“保护心理健康”。
“引人注目的案例提醒世界注意不受监管的对话人工智能与自残之间存在联系的风险,”她说。 “因此,我们的标准确保学生在需要时获得人类支持。”
新的非法定标准指出,学校使用的人工智能产品“应该检测学习者痛苦的迹象”,例如自杀、抑郁或自残的内容。
他们还应该检测夜间使用高峰、“负面情绪暗示”和“表明危机的使用模式”。
如果检测到遇险情况,人工智能应“遵循适当的途径”,例如向学校领导提供支持和“举起保护旗帜”。
标准称,人工智能产品还应该以“安全和支持性”的语言进行响应,“始终引导学习者寻求人类的帮助”。
“人工智能不能取代人类互动”
关于情感和社交发展还有严格的新指南,警告开发人员不要“拟人化”产品。
它规定产品不应“暗示情感、意识或人格、代理或身份”。例如,他们应该避免诸如“我认为”和“头像或角色”等“可能给人留下个性印象”的陈述。
菲利普森说,这对于年龄较小的学生和那些有 SEND 的学生来说尤其重要。
