Anthropic 收紧对特定地区的 AI 销售限制
realtime news Nov 12, 2025 16:19
Anthropic 更新条款以限制在具有潜在安全风险的地区销售和使用 AI,强调民主利益和 AI 安全。
Anthropic,一家专注于 AI 安全和研究的公司,加紧努力防止其技术被滥用,通过收紧对某些地区的销售和使用限制。根据公司近日的公告,此举是针对法律、监管和安全方面的顾虑作出的反应。
新服务条款
在一次战略更新中,Anthropic 修改了其服务条款,禁止在因为潜在安全风险而被视为不支持的地区使用其服务。公司强调,这些地区的实体,包括像中国这样的对抗国家,曾通过在其他国家注册的子公司间接访问其服务。
安全顾虑
Anthropic 表达了对在威权政权影响下的公司可能被迫分享数据或与情报机构合作的担忧。这种义务带来国家安全风险,因为这些实体可能利用 AI 能力来支持对抗的军事和情报目标。还有可能推动其自身的 AI 发展,从而与美国和盟国的可信技术公司竞争。
加强地区限制
为减轻这些风险,Anthropic 正在加强其地区限制。更新后的政策禁止那些超过50%由不支持地区的实体拥有的公司或组织访问 Anthropic 的服务,无论它们的运营地点在哪里。此项变更旨在确保 Anthropic 的政策与现实世界的风险保持一致,并维护民主价值观。
倡导严谨的政策
除了内部政策的变更外,Anthropic 还继续倡导强有力的出口管制,以防止威权国家推进尖端 AI 能力。公司强调加速国内能源项目以支持 AI 基础设施的重要性,并严格评估 AI 模型的国家安全影响。这些措施被视为保护 AI 发展免遭对抗国家滥用的关键。
总之,Anthropic 对负责任的 AI 开发的承诺涉及采取果断行动,将变革性技术与美国及盟国的战略利益对齐,促进民主价值观,同时确保 AI 的安全和保障。
欲了解更多详细信息,请访问 Anthropic 网站。
Image source: Shutterstock