据《华尔街日报》2月14日报道,美国人工智能公司Anthropic的Claude模型,最近被曝出参与了美军针对委内瑞拉领导人的机密行动,甚至还被用在轰炸策划这类活儿上。而这家公司自己明明写过:禁止把模型用于暴力、武器研发这类事。 护栏是自己设的,破也是自己破的。美军那边想要AI帮忙提高作战效率,不想走传统的研发流程,就绕个道,和Palantir这类深度绑定军方的公司合作,把Claude装进作战系统里。AI企业可能一开始没想那么多,等模型真上了战场,再想收回来,已经由不得自己了。 设想一下,如果当初Anthropic死咬住那条红线不松口,拒绝给军事用途开绿灯,这场跨境行动会不会受限制?可能会,至少技术上没那么顺。但现实是,资本、合同、国家安全的名义一层层压下来,那条红线,也就画着看看了。 这事不光是一个公司、一款模型的问题。它意味着AI的军事化已经从试验场走进了真实的战场。算法开始参与决策,甚至可能决定谁被炸、什么时候炸。技术是中立的,但怎么用、用在哪,从来都不是。一旦商业模型变成国家机器的一部分,什么主权、国际法、伦理共识,都得往后靠。 往大了看,这才是最让人担心的。科技公司本来是设规则的一方,现在变成了绕规则的一方。美军拉着硅谷往前冲,AI公司还来不及犹豫,已经被拽进了战场。全球军备竞赛的下一个阶段,可能不再是造多少导弹,而是谁的AI更敢用、更少限制。
