人工智能治疗应用程序可能会帮助一些人,但它们也带来严重的风险

ChatGPT 等人工智能工具在讨论情绪、寻求建议或应对压力方面变得越来越受欢迎。现在,世界各地有数百万人求助于这些数字工具来寻求安慰、指导,甚至非正式的“治疗”。然而,研究人员警告说,虽然这些工具可能带来好处,但它们也存在潜在风险。 […]后人工智能治疗应用程序可能会帮助一些人,但它们也带来严重的风险,首先出现在 Knowridge Science Report 上。

来源:Knowridge科学报告

ChatGPT 等人工智能工具在讨论情绪、寻求建议或应对压力方面变得越来越受欢迎。

现在,世界各地有数百万人转向这些数字工具寻求安慰、指导,甚至非正式的“治疗”。

然而,研究人员警告说,虽然这些工具可能带来好处,但它们也存在潜在风险。如果没有明确的政府监管或医疗监督,就无法保证基于人工智能的心理健康工具的安全性或有效性。

康奈尔大学的一组研究人员一直在密切研究这个问题。他们的目标是帮助制定更好的指南来设计支持心理健康的负责任的人工智能工具。

他们的研究结果表明,开发人员、监管机构和用户需要更清晰的方法来了解这些应用程序的实际功能以及它们可能带来的风险。

该研究由康奈尔大学 Ann S. Bowers 计算与信息科学学院的科学家领导。

该研究将在计算机协会关于计算系统中人为因素的 CHI 会议 (ACM CHI 2026) 上发表,该会议将于 4 月在巴塞罗那举行。该论文目前也可在 arXiv 预印本服务器上获取。

研究人员通过将人工智能心理健康工具与医疗保健和日常生活中熟悉的类别进行比较,提出了一种思考人工智能心理健康工具的新方法。他们建议不要将所有人工智能治疗工具一视同仁,而是根据它们承诺的功能和可靠性对它们进行分类。

例如,某些应用程序可能承诺为某些人提供特定的心理健康益处。在这种情况下,它们可能类似于旨在治疗特定病症的非处方药。

其他应用程序可能声称支持总体福祉,但不保证具体结果。这些可能更像是旨在改善健康但不承诺治愈的营养补充剂。