群发资讯网

Anthropic公司首席执行官警告称,一场人工智能“海啸”即将到来

达里奥·阿莫迪是硅谷最爱用末日隐喻的人之一,这次他选了"海啸"。2026年2月,这位Anthropic公司的首席执行官在

达里奥·阿莫迪是硅谷最爱用末日隐喻的人之一,这次他选了"海啸"。

2026年2月,这位Anthropic公司的首席执行官在印度接受播客采访时说,AI距离达到人类智能水平已经"非常近",而整个社会对即将发生的事情"似乎还没有广泛认识"。他的比喻相当生动:"就好像海啸正向我们袭来,近在咫尺,我们甚至能在地平线上看到它,然而人们却说,哦,这不是海啸,这只是光线造成的错觉。"

话音未落,Anthropic就在同一周悄悄放弃了公司的一项核心安全承诺。

警告与行动之间,有一道裂缝

Anthropic成立于2021年,创始团队大多来自OpenAI,他们离开的理由之一,是对AI安全问题的严重关切。公司在成立之初就确立了一项明确承诺:不会训练或发布无法保证足够安全防护措施的AI模型。这条承诺,是Anthropic区别于同行、自我定位为"负责任AI公司"的核心叙事。

2026年2月下旬,这条承诺被修改了。据CNN和BBC的报道,Anthropic以"竞争压力"为由,悄然调整了这一政策表述,引发业界广泛关注。

与此同时,五角大楼方面传出消息:美国国防部曾向Anthropic施压,要求后者放宽其AI模型在军事应用上的使用限制,否则将面临失去一份价值约2亿美元国防合同的风险。《华尔街日报》和BBC均报道了这场谈判的紧张程度,据悉五角大楼一度给出了一个周五截止的最后期限。

事情的复杂之处在于,Anthropic方面坚持认为,安全政策的调整与五角大楼的压力"完全无关",是公司独立做出的商业决策。这个解释,让外界更难判断真实的决策逻辑。但无论出于何种原因,结果是一样的:那道承诺的防线,移动了。

《卫报》的评论直接将此定性为Anthropic"安全优先"叙事的一次重大裂缝。科技媒体The Verge则指出,这一系列事件让人想起一个反复出现的硅谷剧本:公司在早期以"负责任"为旗帜建立公信力,在商业压力升至临界点时,理想主义的成分开始悄然稀释。

预言家的双重身份

阿莫迪的"海啸"警告,并不孤立。

同一时期,OpenAI首席执行官萨姆·奥特曼多次公开表示,AI将系统性地消灭某些类型的工作岗位。微软AI部门的负责人则预测,未来一年半内,几乎所有日常办公任务都将被AI代理自动化。阿莫迪本人此前也曾在接受Axios采访时警告,AI可能在五年内取代一半的入门级白领工作。

这些话,说的人是谁?是各大AI公司的掌门人,也就是正在全速研发和部署这些系统的人。

Forbes的分析将这种现象称为"预言家悖论":一边声称海啸即将来临,一边全力加速浪潮的形成,两件事同时发生在同一批人身上。批评者认为,这类末日预言在客观上起到了强化AI"不可阻挡"形象的作用,营造出一种技术宿命论的氛围,让监管讨论在开始之前就已经在心理上认输。

更微妙的是,Anthropic近期还做了一些让Claude的AI模型形象更"人性化"的动作,包括让其在自己的Substack平台上发布所谓的"反思"文章,并在公开场合持续暗示Claude可能已经拥有某种意识。这种拟人化策略,在商业上的效果显而易见,它让用户对AI产品产生情感依附,同时也让"AI已经接近人类"的判断更难被理性评估。

谁来接这道海啸预警

阿莫迪在播客结尾说的那句话值得单独放在这里:"人们还没有充分认识到这项技术的风险,当然也没有采取任何行动。"

这句话本身没有问题,问题在于语境。一个正在向五角大楼让步、调整安全承诺、全力商业扩张的公司CEO,用"人们没有采取行动"来收尾他的警告,很难不让人追问:他说的"人们",究竟包不包括他自己?

海啸的比喻是有力的。但真正让海啸变得危险的,从来不是浪,而是那些在岸边修建更高建筑却拆掉预警系统的人。