详细内容或原文请订阅后点击阅览
这些 ChatGPT 更新能否使聊天机器人对心理健康更安全?
OpenAI 表示,其最新的 GPT-5 改进将聊天机器人的不良行为减少了 65%。但使用指南仍然很复杂,即使是首席执行官萨姆·奥尔特曼本人也是如此。
来源:ZDNet | 机器人新闻关注 ZDNET:将我们添加为 Google 上的首选来源。
关注 ZDNET: 将我们添加为首选来源 。ZDNET 的关键要点
- OpenAI 正在减少其聊天机器人中的不良行为。不满意的响应减少了 65%。 这些更新的目的并不是鼓励陷入危机的用户。
在公开展示公司如何为经历心理健康问题的人创造更安全的体验后,OpenAI 于周一宣布对其最新模型 GPT-5 进行改进。
OpenAI 宣布改进 GPT-5另外:就连 OpenAI 首席执行官 Sam Altman 也认为你不应该相信人工智能用于治疗
就连 OpenAI 首席执行官 Sam Altman 也认为你不应该相信人工智能用于治疗该公司表示,这些改进创建了一个模型,可以更可靠地响应表现出躁狂、精神病、自残和自杀意念以及情感依恋迹象的人们。
因此,根据 OpenAI 的新指南,不合规的 ChatGPT 响应(那些使用户进一步远离现实或使他们的精神状况恶化的响应)已经减少,该公司在博客文章中表示。 OpenAI 估计,GPT-5 的更新在与用户有关心理健康问题的对话中“将不完全符合期望行为的响应率降低了 65%”。
更新
OpenAI 表示,它与 170 多名心理健康专家合作,为面临自身危险的用户进行识别、仔细应对并提供现实指导。在周二有关 OpenAI 最近的重组和未来计划的直播中,一位观众向首席执行官 Sam Altman 询问了专家名单——Altman 不确定他可以分享多少信息,但指出“透明度更高是一件好事”。
直播另外:Google 最新的人工智能安全报告探讨了人类无法控制的人工智能
