详细内容或原文请订阅后点击阅览
为什么AI“治疗”可能如此危险
使用AI聊天机器人进行“治疗”很危险。这就是为什么
来源:科学美国人人工智能聊天机器人不判断。告诉他们您生活中最私密,最脆弱的细节,其中大多数会验证您,甚至可能提供建议。这导致许多人转向诸如Openai的Chatgpt for Life Guridance之类的应用程序。
甚至提供建议 生命指导但AI“治疗”有很大的风险 - 在7月下旬,OpenAI首席执行官Sam Altman警告Chatgpt用户不要因为隐私问题而将聊天机器人用作“治疗师”。美国心理学会(APA)呼吁联邦贸易委员会调查APA声称AI Chatbot公司的“欺骗性实践”是通过“将自己作为受过训练的心理健康提供者驱逐出境”的,并引用了两项持续的诉讼,其中父母指称由Chatbot造成的危害。
警告ChatGpt用户不要将聊天机器人用作“治疗师” 呼吁联邦贸易委员会调查“欺骗性实践”“对我而言,这听起来像是人类的声音,” APA医疗保健创新办公室持牌心理学家兼高级主任C. Vaile Wright说,该办公室专注于在心理保健中安全有效地使用技术。 “即使相对于六到十二个月前,这项技术的复杂水平也非常惊人。我可以欣赏人们如何掉下兔子洞。”
支持科学新闻业
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您可以帮助确保有关当今世界的发现和想法有影响力的故事的未来。
订阅科学美国人与赖特(Wright)谈到了AI聊天机器人如何用于治疗的可能是危险的,以及是否有可能为既有帮助又安全的一个人进行设计。
科学美国人[访谈的编辑笔录。]
访谈的编辑笔录如下。