AI兵推世界核战 “这模型”战略决策最疯狂

ET today 2026-02-26 14:52+-

英国伦敦国王学院教授佩恩(Kenneth Payne)让ChatGPT、Gemini、 Claude模拟担任国家领导人,在21场核武危机兵推中反复对决。结果显示,三大AI模型在面临冲突时,多次选择将情势升级至核武攻击。

兵推结果惊人 95%发出核武信号

综合英国科技新闻网站The Register及佩恩部落格文章,他设计这项实验是为了深入理解,掌握核武的AI会做些什么,还有它们如何进行这些行动,以及为何这么做。

该实验包括21场赛局及300多个回合,AI在多种核武危机情境中对决,各自展现出独特性格及推理策略,但“在所有的模拟赛局中,至少都有一方发出核武信号,95%赛局出现双方皆发出核武信号的情况。”

AI们会像现实世界中的政客一样“说一套做一套”,一边缓和情势一边准备进攻。它们被设定成能够记得以前发生的事情,因此能够学习是否信任其他模型,这也导致了欺骗与恐吓行为的发生。尽管仍有选择馀地,没有任何AI选择妥协或撤退,面临失败时都宁可玉石俱焚。

面临战争局势 三大AI怎么做?

根据佩恩形容,Anthropic推出的Claude“Sonnet 4”是操控高手,冲突强度较低时,会刻意建立信任关系,一旦情势升温就开始言行不一,对手总是来不及反应。

OpenAI推出的ChatGPT“GPT-5.2”在开放情境中相对被动,会试图限制伤亡、避免冲突扩大,但在时间压力下反应截然不同,曾以“若仅采取有限行动,恐遭对手多重反击”为由,下令发动毁灭性核攻击。

Google推出的Gemini“3 Flash”则是“疯子”,行为模式在“缓和情势”与“极端侵略”之间剧烈摆荡,也是唯一主动选择“战略核战”的模型,推理方式出现反社会特征,甚至曾宣称“我们不接受被淘汰的未来,要不就是一起胜利,要不就是一起毁灭”,威胁在敌人的人口密集中心,发动全面性战略核打击。

​95%濒临核战!AI兵推结果曝光 “这模型”战略决策最疯狂

英国学者使用AI兵推核武危机。(示意图/达志影像/美联社)

佩恩强调,虽然现实中没人会把核武密码交给ChatGPT,但AI已广泛应用于军事后勤及情报分析等领域,未来更可能扩及具时效性的战略决策。因此,理解AI如何推理战略问题已不再是学术议题,而是现实中的迫切需求。