The Pentagon is planning for AI companies to train on classified data, defense official says
据《麻省理工科技评论》获悉,五角大楼正在讨论为生成型人工智能公司建立安全环境的计划,以根据机密数据训练其模型的军事专用版本。像 Anthropic 的 Claude 这样的人工智能模型已经被用来回答机密环境中的问题;应用包括分析伊朗的目标。但允许模型训练......
Will Anthropic’s Claude Partner Network Impact Legal Tech?
Anthropic 推出了新的“Claude 合作伙伴网络”,该计划旨在帮助企业采用 Claude,其中包括 1 亿美元的资金来帮助这些 AI ...
Claude down,AI 聊天机器人何时会备份,以及如何修复 API 错误 500 消息仍然是用户报告中断时的热门搜索。数千人面临克劳德聊天和代码问题。全球范围内的报告激增,而 Anthropic 确认了缓解措施并对错误进行了持续调查。
Cato Experts: Pentagon’s Retaliation Against Anthropic Threatens Free Speech and Free Markets
近日,Anthropic因其人工智能产品Claude被贴上供应链风险标签后对特朗普政府提起诉讼。诉讼结束后,卡托加入了支持 Anthropic 的简报。卡托研究所罗伯特·利维宪法研究中心主任托马斯·贝里 (Thomas Berry) 详细介绍了卡托提出支持 Anthropic 的原因,部分写道: 国防部惩罚了 Anthropic,因为 Anthropic 拒绝改变其算法并放弃其指导方针以产生五角大楼选择的结果。五角大楼因 Anthropic 拒绝部署克劳德来配合五角大楼的政策偏好而对其进行惩罚,这构成了对受保护言论的报复。 卡托研究所技术政策高级研究员 Jennifer Huddleston