在AI灾难爆发前,川普和习近平能达成共识?

经济学人/加美财经 2026-05-10 21:57+-

中国国家主席习近平与美国总统川普下周(5月14、15 日)将在北京会晤,外界预期两人可能讨论中东战争、 贸易失衡以及台湾问题,但在地缘政治之外,人工智慧也被认为会被摆上谈判桌。《经济学人》7日指出,北京与华府对于AI的快速发展都感到不安,AI模型越聪明,对各国经济与地缘政治的影响力就越高,但AI带来的风险也随之增加。自从原子弹问世以来,大国从未面临如此令人畏惧的冷战式两难困境(cold-war-style dilemma),美中两强也在权衡到底是该合作抑或竞争。

《经济学人》指出,川普政府与AI新创公司Anthropic(最著名的产品就是Claude)闹翻后,目前对科技监管已不再采取放任态度,考虑下令要求新模型必须经过政府审查。而Anthropic上个月宣称新开发的Mythos模型寻找网路防御漏洞的能力太过强大,因此无法对外公开,此事引发了各界高度关注,中国官媒认为Mythos具备“前所未有的网路攻击能力”,俄罗斯媒体甚至宣称这个AI的能力“比核弹更可怕”。由于担心功能日益强大的AI模型可能发动网路攻击、设计生物武器、甚至完全脱离人类控制,《经济学人》认为人工智慧作为外交的重点工作变得刻不容缓。

不过美国与中国都认为AI的发展攸关能否击败对方,因此双方都不愿放慢发展脚步,以免让对方占得先机,这也使得美中能否针对人工智慧的“防护措施”达成共识变得复杂。部分美国科技界人士认为,率先开发出能自我提升的人工智慧模型,将能创造巨大的战略优势;中国专家则倾向于将人工智慧视为经济成长的关键:更像是核能,而非核武器。不过清华大学教授、中国新一代人工智能治理专业委员会主任薛澜日前在国会山庄的活动中表示,美中两国在AI安全方面存在“共同利益”,“如果一个国家不安全,我们所有人都不安全”。

《经济学人》指出,薛澜的想法与中国的政策不谋而合。2022年ChatGPT问世后不久,中国便开始推动AI国际合作,倡议成立联合国相关机构。中国也曾提出“暂停”人工智慧发展的构想,主张应制定全球标准以确保人类持续掌握主导权,呼吁西方国家与贫穷国家分享AI技术,以免将世界划分为“科技拥有者”与“非拥有者”两大阵营。《经济学人》认为,美中采取双边合作模式的可能性较高,毕竟两国拥有全球90%的尖端运算能力,也是唯二具备实质监管影响力的国家。

《经济学人》指出,华府与北京直接针对AI问题对话并非新鲜事。去年10月的釜山川习会针对AI领域的合作就已达成共识;2024年,时任美国总统拜登与习近平也都同意,核弹应由人类而非人工智慧来控制。然而新兴风险的加速涌现,迫使各方重新审视这种零星而笼统的合作宣示,尤其对美国来说,中国的AI生态系也是一项特别的风险来源,因为中国的AI模型大多采“开源”模式,让恶意行为者能轻易取得强大的AI工具。

另一方面,美中两国的研究人员早已展开合作,只是没有引起外界关注。像是包括百度在内的一些中国大型实验室,已采用由Anthropic开发人员编写的开源程式码,用以规范人工智慧代理之间的沟通方式。美中两国的科技业高管与退休官员,近年也屡屡举行非正式对话,有时甚至是秘密进行。然而据参与者表示,在标准协调方面能推动实质进展的技术专家,往往并未参与其中。

2019年6月29日,美國總統川普與中國國家主席習近平在大阪舉行雙邊會談。(AP)

《经济学人》分析,美中之间的AI合作可能有三种模式:

首先是对话。一位西方官员表示,美中两国可以针对AI议题进行“战略保证”(strategic reassurance)。在核武谈判中,各国通常会讨论如何管理风险、建立信任以及降低误判的可能性。美中两国或许会各自制定AI规则,但恐怕不会进行协调。 美国智库“人工智慧政策与战略研究所”的(Institute for AI Policy and Strategy)卡森·埃尔姆格伦(Karson Elmgren)表示:“如果双方阅读相同的技术论文,并对事实有相似的认知,他们可能会采取合理的应对措施。”

其次,美国与中国可就如何测试模型的安全性达成共识。双方无需分享具体研究结果,但可共同遵循关于危险行为的标准,或针对如何辨识与人类创建者意图不符的动机制定统一准则。乔治华盛顿大学的美中科技与AI竞争专家杰佛瑞・丁(Jeffrey Ding)指出,用于监测人工智慧安全性的数据,往往难以与AI开发所需的重要资讯做区分,透过不公开测试结果,双方都可以消除对资料外泄的担忧。

最后则是核实。川普与习近平可以试著达成一项正式协议,共同制定安全测试标准,分享评估结果。然而此举可能需要更积极的检核手段,确认相关协议是否获得遵守,像是实地检查、或者将资料中心的资讯传送给国际仲裁机构——就像负责监测核材料的国际原子能总署做的那样。

不过《经济学人》也承认,无论是上述合作的哪一点,目前看来都遥遥无期。美国的AI研究人员对中国官员的诚意抱持怀疑,中国的AI实验室在安全方面则相对松懈。像是上个月发布的DeepSeek v4模型的附件,就省略了美国实验室常见的安全防护措施。拜登政府前官员瑞安·费达修克(Ryan Fedasiuk)认为,中国方面对AI安全性的担忧只不过是在作秀,目的是“让美国人难堪”。

此外,尽管中国公开支持对AI进行全球治理,但《经济学人》也强调,中国始终拒绝与美国就此议题进行讨论。2024年,美国曾派遣高级安全官员和技术专家前往日内瓦,与中方对口官员会晤。熟悉谈判情况的人士透露,中国只派出政治官员与会,而且拒绝讨论AI安全问题,除非美国先解除对尖端AI芯片的出口管制。 美方官员抱怨,中国总是利用对话来谋取政治利益,就像时任美国众院议长佩洛西(Nancy Pelosi)2022年访问台湾,中国便终止了气候变迁的相关对话。

除了美方对中国的不信任,中方也担忧美国实验室正利用安全问题来控制这项技术的发展。有人担心,分享安全数据只是为了窃取中国技术机密的幌子。华府智库卡内基国际和平基金会(Carnegie Endowment)的核武管制谈判专家赵通(Tong Zhao)表示,中国通常对与技术更先进的对手签订协议持怀疑态度。中国在19世纪签订“不平等条约”的历史,使官员对那些可能拖慢发展步伐、或者将中国锁定在二流地位的协议保持警惕。 

美国财政部长贝森特(Scott Bessent)上个月在《华尔街日报》的专访中曾经表示,“如果我们在AI领域未能胜出,那就意味著大局已定”。这种态度也让双方在AI领域的合作更显困难。美中两国领导人或许会基于其他原因,将AI视为关乎存亡的关键,不过乔治华盛顿大学的杰佛瑞・丁以博帕尔化学事故(Bhopal chemical disaster)与更著名的车诺比核灾(Chernobyl meltdown)为例,悲观认为“历史经验表明,往往只有在发生悲剧性事故后,才能看到真正的进展”。《经济学人》则说,人工智慧的谈判才是对人类智慧的真正考验。