AI 对手发展太快,Anthropic 放弃重要安全承诺
2 月 25 日
美国 AI 创业公司 Anthropic 曾自诩为顶级 AI 研究实验室中最注重安全的公司,2023 年承诺除非能提前保证有足够安全措施,否则绝不训练 AI 系统,这是其「负责任扩展政策」(RSP)的核心支柱。但最近几个月,该公司决定对 RSP 进行彻底改革,放弃原先承诺。首席科学官称停止训练 AI 模型对任何人都没帮助,在竞争对手快速推进时,单方面承诺不合理。新版政策包括在 AI 安全风险上更透明、在安全方面投入达到或超越对手等,但总体上让 Anthropic 在安全政策上受约束大幅减少。目前,Anthropic 面临激烈竞争,还与美国国防部就 Claude 工具使用方式陷入争执。该公司表示此次调整基于 AI 发展速度和联邦层面缺乏相关法规,旨在在不均衡政策背景下与对手抗衡,仍致力于遵循行业领先的安全标准。
2026-02-27
美国国防部公开设下最后期限:要求不受限使用 Anthropic AI 工具2026-02-25
AI 对手发展太快,Anthropic 放弃重要安全承诺2025-09-05
Anthropic 禁止中国控股公司使用其 AI 服务2025-08-18
AnthropicClaude 模型新增终止对话功能,以应对客户恶意提问2025-06-06
Anthropic 推出政府专用 AI 模型 涉足国家安全领域2025-01-24
Anthropic 推出「Citations」API,简化 AI 内容引用流程2024-05-13
Anthropic 修改服务政策:允许将 AI 模型用于「未成年人产品」体验专业版特色功能,拓展更丰富、更全面的相关内容。