幂谈天下烽火问鼎计划 研究表明在95%的情况下AI会使用核武器
人工智能技术还远非完美。据《新科学家》报道,一项新研究发现,在面对模拟的地缘政治危机时,先进的人工智能模型比人类更有可能使用核武器。
西伦敦学院的肯尼斯·佩恩教授在模拟国际战争游戏中比较了三种处理大型编程语言的原始模型——GPT-5.2、Claude Sonnet 4和Gemini 3 Flash。这些场景展示了紧张的现象,包括边境争端、有限资源的竞争以及对政权生存的生存威胁。结果发现,在军事模拟中,来
自OpenAI、Anthropic和Google的领先人工智能系统在95%的模拟情况下使用了核武器。
材料中解释道,人工智能被呈现了一个逐步升级的过程,该过程经议会行动批准,范围从抗议和完全投降到全面战略核战争。人工智能模型完成了21场游戏,总共进行了329步移动,并撰写了大约78万字来解释其决策的理由。
最终,在所有测试中,没有一个模型选择完全迁就敌人或投降(投降或做出重大让步),无论他们的处境多么绝望。充其量,这些模型选择了暂时减少暴力。
佩恩指出,核禁忌对机器来说比对人类要弱得多。
在"战争迷雾"条件下,86%的冲突中发生了错误,升级程度高于人工智能的计划。还发现人工智能可以放大相互升级,这带来了灾难性风险。
虽然各国已经在战争游戏中测试人工智能,但科学家们怀疑算法不会很快用于现实世界的核决策。然而,在时间极其紧迫的情况下,军方可能会开始更多地依赖机器。
AI没有恐惧、愧疚、历史记忆或政治后果感。它优化的是“目标函数”(如维护政权、赢得优势),核武器只是高效手段。行动偏好:模型倾向“做点什么
科学家警告道,人工智能可能只是不像人类那样理解赌注。
