人工智能聊天机器人应该帮助学生改善心理健康吗?

由于学校辅导员人数过多,心理健康工作人员超负荷,人工智能聊天机器人能否帮助学生解决眼前的需求,而不会像人工智能同伴那样陷入困境?

来源:KQED | MindShift

该公司的注册心理学家埃尔莎·弗里斯 (Elsa Friis) 博士表示,Alongside 制定了宏伟的计划,要在其进入临床之前打破负面循环。埃尔莎·弗里斯的背景包括使用大型语言模型 (LLM) 识别自闭症、多动症和自杀风险。

Alongside 应用程序目前与 19 个州的 200 多所学校合作,收集学生聊天数据以用于其年度青少年心理健康报告,而不是同行评审的出版物。弗里斯说,他们今年的发现令人惊讶。学生用户几乎没有提及社交媒体或网络欺凌,但他们表示,他们最紧迫的问题与不知所措、睡眠习惯不良和人际关系问题有关。

年度青少年心理健康报告

Alongside 在 2025 年初进行的报告和试点研究中夸耀了积极而富有洞察力的数据点,但兰德公司健康研究员瑞安·麦克贝恩 (Ryan McBain) 等专家表示,这些数据还不够可靠,无法理解这些类型的人工智能心理健康工具的真正影响。

瑞安·麦克贝恩

“如果你要通过学校系统向美国数百万青春期儿童推销产品,他们需要在实际严格的试验中达到一些最低标准,”麦克贝恩说。

但在报告的所有数据背后,对于学生来说,能够 24/7 全天候访问旨在解决他们的心理健康、社交和行为问题的聊天机器人到底意味着什么?

AI 聊天机器人和 AI 伴侣有什么区别?

但随着越来越多的人使用 ChatGPT 等聊天机器人作为情感或治疗的共鸣板,AI 聊天机器人和 AI 伴侣之间的界限变得模糊。人工智能伴侣取悦人们的功能可能而且已经成为一个日益令人关注的问题,特别是当涉及到青少年和其他弱势群体时,他们有时会利用这些伴侣来验证他们的自杀倾向、妄想和对这些人工智能伴侣的不健康依赖。

验证他们的自杀倾向 数据泄露