群发资讯网

五角大楼这次没绕弯子,直接给AI公司下了最后通牒。 美联社2月24日的消息说,

五角大楼这次没绕弯子,直接给AI公司下了最后通牒。 美联社2月24日的消息说,美国防部长赫格塞思找Anthropic的CEO阿莫代伊谈了一次,谈得很硬:2月27日之前,必须开放技术让军方无限制使用。不答应的话,政府合同就别想了,供应链也会被列入风险名单,甚至可能动用《国防生产法》强制接管。 Anthropic这名字这两年在大模型圈里挺响,和OpenAI算是对标的对手。但和OpenAI不一样的是,这家从成立那天起就把“不作恶”三个字焊在门面上——它们公开承诺过,不会把AI用在致命性自主武器上,也不会拿技术去搞全民监控。现在,五角大楼的意思是,这两条红线,你得自己拔掉。 赫格塞思那边的逻辑其实不复杂:中美AI竞赛打到现在这个阶段,五角大楼不想再等企业慢慢讨论伦理。要的就是快、全、深——最好所有最前沿的模型直接塞进军事系统,无人机、情报分析、战场决策,能AI化就AI化。至于哪些场景出界、哪些规则可能被突破,那不是他们优先考虑的问题。 阿莫代伊现在站在一个两头都烫的位置上。如果松口,让军用技术突破伦理防线,不仅公司内部会炸,整个AI圈那些盯着的同行、学者、非营利组织,都会把他当成“投敌”的那一个。如果不松口,27号一过,政府合同全断、供应链被封,紧接着可能就是法律强制手段——这不是吓唬人,《国防生产法》真有这个权限,特朗普时期就用来逼过企业生产呼吸机。 从单家公司到整个行业,这事牵扯的不只是Anthropic自己的命运。一旦开了这个头,以后所有做前沿AI的,都得面对同一个问题:你敢不敢对五角大楼说不? 短期看,美方是铁了心要把AI的军事潜力挖到底。可长远来说,这种“要么服从,要么消失”的打法,对技术圈的公信力是致命伤。一个技术如果连“不作恶”的门面都守不住,那它在社会上站得住脚的理由还剩多少,就很难讲了。 现在阿莫代伊还在守那两个底线:拒绝全自动军事打击,拒绝监控美国公民。但守不守得住,27号之前就会有答案。