Anthropic晚上发声明,表示将把国防部告上法庭:
“今天早些时候,战争部长Pete Hegseth在 X 上发文称,他正指示战争部将 Anthropic 指定为“供应链风险”。这一行动是在与战争部进行了数月谈判之后采取的;谈判因我们就 Claude(我们的 AI 模型)的合法使用提出的两项例外请求而陷入僵局:对美国人进行大规模国内监控,以及完全自主武器。
截至目前,我们尚未收到战争部或白宫就谈判进展与状态发来的直接沟通。
我们一直本着诚意尝试与战争部达成协议,并明确表示:除上述两项狭义例外之外,我们支持一切在国家安全领域对 AI 的合法使用。据我们所知,这两项例外迄今为止并未影响任何一项政府任务。
我们坚持这两项例外有两个原因。第一,我们不认为当今最前沿的 AI 模型已足够可靠,能够用于完全自主武器。允许现有模型以这种方式使用,将危及美国作战人员与平民。第二,我们认为对美国人进行大规模国内监控,构成对基本权利的侵犯。
将 Anthropic 指定为供应链风险将是前所未有的举措——从历史上看,这类做法通常只针对美国的对手,从未以公开方式适用于一家美国公司。我们对这些进展深感悲痛。作为第一家在美国政府机密网络中部署前沿模型的前沿 AI 公司,Anthropic 自 2024 年 6 月以来一直在支持美国作战人员,并且无意停止。
我们认为,这一指定既缺乏稳固的法律依据,也会为任何与政府进行谈判的美国公司树立危险的先例。
无论战争部施加怎样的恐吓或惩罚,都不会改变我们在大规模国内监控或完全自主武器问题上的立场。我们将就任何供应链风险指定在法庭上提出挑战。
这对我们的客户意味着什么
Hegseth部长暗示,这一指定将限制任何与军方做生意的主体与 Anthropic 开展业务。但部长并不具备可支撑这一说法的法定授权。从法律上讲,根据第 10 编第 3252 条(10 USC 3252),供应链风险指定只能延伸到战争部合同中对 Claude 的使用——它不能影响承包商如何使用 Claude 去服务其他客户。
在实践中,这意味着:
如果你是个人客户,或与 Anthropic 签有商业合同,你对 Claude 的访问——通过我们的 API、claude.ai 或任何产品——完全不受影响
如果你是战争部承包商,那么这一指定(若被正式采纳)只会影响你在战争部合同工作中对 Claude 的使用;用于其他任何目的的使用不受影响
我们的销售与支持团队随时待命,解答你可能提出的任何问题。
我们由衷感谢我们的用户,以及业内同仁、政策制定者、退伍军人和近日公开表达支持的公众成员。谢谢。最重要的是,我们的优先事项是保护客户,避免这些非同寻常事件造成任何中断,并与战争部合作,确保顺利过渡——为了他们、为了我们的部队,也为了美国的军事行动。”
热点现场海外新鲜事今日焦点



