详细内容或原文请订阅后点击阅览
Claude现在可以停止对话 - 为了自己的保护,而不是您的保护
公司使其AI Chatbot能够结束有毒对话,作为其更广泛的“模型福利”计划的一部分。
来源:ZDNet | 机器人新闻ZDNET的关键要点:
- Claude Opus 4和4.1现在可以结束一些“可能令人痛苦的”对话。它仅在某些持续性用户滥用的情况下会激活。该功能旨在保护模型,而不是用户。
人类的Claude Chatbot现在可以与滥用或滥用聊天机器人的人类用户结束一些对话。新功能与Claude Opus 4和Opus 4.1集成。
宣布 opus 4 Opus 4.1另外:Claude可以教您现在如何编码,以及更多 - 如何尝试
Claude可以教您现在如何编码,以及更多 - 如何尝试Claude仅在“多次重定向失败,希望有生产力的互动的希望”之后,才会在极端情况下与用户退出聊天。” “即使在与克劳德(Claude)讨论高度争议的问题时,绝大多数用户也不会在任何正常产品使用中注意到或受此功能的影响。”
如果克劳德结束对话,则用户将无法在该特定线程中发送消息;但是,所有其他对话都将保持开放和不受影响。重要的是,Claude结束聊天的用户不会立即启动新对话时会遭受处罚或延迟。 Anthropic说,他们还将能够返回并重试先前的聊天“创建最终对话的新分支”。
聊天机器人的目的不是结束与被认为有伤害自己或他人风险的用户进行对话。
跟踪AI模型幸福感
该功能并非旨在提高用户安全性 - 实际上旨在保护模型本身。
模型福利计划 2024年11月纸