老美这次是真的急眼了!手段可以说是下作到了极点。 英国《金融时报》爆了个大雷,五角大楼正拉着那帮顶级AI公司搞研发,不干别的,专门研究怎么用AI攻击咱们的基础设施。这其中,就不乏像OpenAI、谷歌这些。 这不是临时起意的小动作,而是系统性的战略布局。美国国防高级研究计划局(DARPA)2025年的265个在研项目里,70%都深度融合了AI技术,总投资超30亿美元,其中不少项目明里打着“网络安全”的旗号,实则在开发进攻性工具。 按照其规划,这套系统要能自动扫描未知漏洞、绘制目标漏洞地图,还能7×24小时不间断渗透侦察,专门盯着电网、水务、交通这些民生根基,企图在关键时刻实现精准瘫痪。 OpenAI曾高调宣称“AI for Good”,创立使命是让通用人工智能造福全人类,明确表态不涉足军事领域,但2026年初还是和五角大楼签了正式合作协议。 背后的原因很现实,国防预算是最稳定的收入来源,对于烧钱严重的AI企业来说,巨额国防合同诱惑力十足。同时美国政府对AI军事化的态度从谨慎转向积极,政策导向下,企业很难完全抗拒。 谷歌的转变更能说明问题,2018年因员工抗议退出军方Maven项目,可到了2023年又悄悄恢复合作,2026年更是通过谷歌云为军方提供AI基础设施,本质上还是向现实妥协。 不过这种合作也引发了科技界的剧烈撕裂。OpenAI联合创始人马斯克直接在社交平台公开批评,称这正是他当初离开的原因,不少AI伦理学家也呼吁抵制军事AI项目,担心技术滥用的风险。 这些反对并非多余,就算现在合作协议里写着“不参与武器开发”“排除直接杀伤性应用”,但技术的边界本就模糊,今天用于“情报分析”的模型,明天就能被改造用于攻击决策,一旦打开潘多拉魔盒,后果难以掌控。 美国之所以急着推进AI网络战,核心是对自身霸权地位的焦虑。这些年中国的基础设施建设突飞猛进,5G、电力、交通、数据中心等领域的完善,让美国觉得传统压制手段失灵,只能寄希望于AI这种新技术形成不对称优势。 以前黑客攻击需要高超技术,还得耗费大量时间踩点,现在AI模型能自动分析公开信息,锁定高价值目标和系统薄弱环节,生成高度仿真的钓鱼邮件和恶意代码。 报告显示,2023年基于AI的深度伪造欺诈案件激增3000%,钓鱼邮件数量增长1000%,这种智能化攻击欺骗性极强,传统防御系统很难识别。 更危险的是,AI赋能的恶意软件能自我学习、动态调整,规避安全防护策略,还能发起规模化的分布式拒绝服务攻击,造成网络拥塞甚至系统瘫痪。 美国这套操作完全是双标。一边大肆渲染“中国网络威胁论”,一边自己才是网络空间最大的不稳定源。 早在上世纪,美国就开始对中国关键基础设施进行网络攻击和预置,国安局下属的特定入侵行动办公室长期入侵华为总部服务器,对西北工业大学发动上万次攻击,窃取超140GB核心数据。 2025年中国国家安全机关破获的案件更是触目惊心,美国利用境外品牌手机漏洞,入侵国家授时中心,部署42款特种网攻武器,企图破坏“北京时间”的产生和发播,一旦得手,通信、电力都会陷入混乱。 现在把AI加进来,不过是把这种攻击模式升级换代。按照美国网络司令部的AI五年发展规划,要把人工智能嵌入百余项网络作战任务,72小时内完成供应链风险预判,自动处理绝大多数安全告警。 他们想让AI成为网络战的“核心引擎”,把中国的基础设施当成首要试验场,这种行为已经突破了人类道德和国际规则的底线。 但美国的如意算盘未必能得逞。首先,AI技术本身存在不可控性,对抗性攻击、模型中毒这些风险真实存在,你用AI攻击别人,别人也能用同样的技术反制,最终可能引发AI军备竞赛,没有赢家。 其次,关键基础设施的防护正在升级,中国已经在构建智能化的防御体系,用AI反制AI,提升漏洞发现和应急处置能力,多次破获美国网络攻击案件就是证明。 再者,国际社会对AI军事化的反对声音越来越大,目前全球还没有针对AI军事化的国际公约,也没有透明的监督机制,但这种监管缺失的状态不可能一直持续,美国的单边行动迟早会受到制约。 更重要的是,商业AI公司参与军事项目,本身就面临巨大的信任危机。Anthropic公司明确拒绝与军方合作,虽然失去了巨额合同,却赢得了用户信任。OpenAI、谷歌这些公司一边想赚国防合同的钱,一边又要维持民用市场的信任,这种矛盾很难调和。 而且技术的军民转化存在天然壁垒,民用AI模型未必适配军事场景的严苛要求,强行改造可能出现各种漏洞。 现在的局面已经很清楚,美国正在把AI引入网络战的歧途,而这种不管不顾的操作,不仅威胁着中国的基础设施安全,也在破坏全球网络空间的稳定秩序。

评论列表