正文
美苏愿意妥协以减少核不扩散威胁的原因有几点,这些因素可能协同作用,促成了《不扩散核武器条约》的成功谈判。
一种理论认为,
超级大国及其欧洲盟友在制定欧洲核秩序和接受欧洲冷战领土划分上存在共同利益。
第二种理论强调,尽管德国核武器化是关键问题,但两国也严重
担忧全球核扩散,这促使它们通过“大交易”来遏制核扩散。
这两种理论都支持
美苏有理由合谋,以保持自身核力量,同时限制第三方国家加入核俱乐部,避免破坏全球力量平衡。
另一个主要原因是,双方最终都
接受了战略稳定的价值。战略稳定意味着任何一方都不认为使用核武器会比持续核威慑和通过非核手段追求国家安全目标更好。
美苏间战略稳定的发展促使两国认真对待核不扩散,以维护力量平衡。在战略稳定条件下,核国家有动力阻止可能破坏现有平衡的扩散。
此外,《不扩散核武器条约》不仅满足了当时核超级大国的利益,而且提供了一种双方都能接受的、鼓励遵守的共同商定手段。
《不扩散核武器条约》通过两种方式维持:“胡萝卜”(以向遵守国提供民用核技术为形式)和“大棒”(以对《不扩散核武器条约》生效后试图发展核武器的国家实施制裁甚至其他军事行动为形式)。这些激励措施促使无核国家留在《不扩散核武器条约》内,尽管少数国家仍为自身战略利益寻求核武器,并为此付出巨大代价。
《不扩散核武器条约》的成功依赖于核武器国家的协调与合作,它们持续合作以尽量减少新核国家的出现。每个核武器国家都从保持“核俱乐部”规模小和彼此间维持核稳定中获得显著利益。
《不扩散核武器条约》对核大国带来的稳定利益是该条约自谈判以来相对成功和存续的基础。
从核武器的过往经验中识别建立人工智能国际治理机制的挑战
创建《不扩散核武器条约》和核稳定机制的经验表明,成功的治理需要对潜在风险、实际治理方和治理机制有清晰理解。然而,
将核治理模式应用于人工智能目前尚不可行。
主要障碍在于:对人工智能风险的看法存在分歧、复杂的参与者生态系统以及治理方法的不确定性。
《不扩散核武器条约》历史暗示,人工智能全球治理,特别是防止最强大模型扩散的治理,可能只有在主要人工智能强国实力对等且相互脆弱时才能实现。
由于人工智能国际治理涉及可能影响国家安全和经济增长的政治决策,这些分歧在短期内阻碍了灾难性人工智能风险机制的建立。
关于人工智能技术是否构成与核武器相当的极端或灾难性风险,存在持续分歧。
部分专家指出,强人工智能带来滥用风险(如开发毁灭性武器)和失控人工智能风险(人工智能追求有害人类的目标)。但人工智能公司如OpenAI认为,其现有人工智能模型对生物威胁创造的提升微乎其微。
失控人工智能的风险也备受争议。
一些研究人员认为人工智能永远不会失控,性能可能达到瓶颈;另一些人则认为具有欺骗性的人工智能超级智能已然存在。评估人工智能是否构成灾难性风险十分困难,评估标准仍在发展,且独立研究人员通常无法访问专有模型。
也有人讨论
人工智能可能巩固极权主义国家等其他危害。
然而,这些是累积性伤害,而非突然事件,与核冲突有本质区别,可能需要不同的治理形式,单一的《不扩散核武器条约》式条约难以涵盖。
与核风险不同,人工智能尚未经历如核试验、广岛长崎核爆、古巴导弹危机等具体事件来形成全球共识。
核风险管理机构如国际原子能机构
(IAEA)
专注于可控且已充分理解的风险,而人工智能风险共识尚缺。
目前也不存在人工智能稳定或僵局,无论是国家间还是公司间。人工智能技术尚不成熟,其潜力不确定,无法清晰理解人工智能如何用于国家安全或威胁他国利益。人工智能领域没有战略平衡,部署人工智能未因潜在巨大负面后果而受阻,反而被视为带来战略和经济优势。
人工智能能力发展迅速,未来可能出现展示性事件促成共识。但在此之前,这些争议将阻碍艰难的行动。
人工智能的全球开发者既包括国家也包括私人企业。与核技术政府主导不同,
人工智能发展以私营企业为主,
技术扩散快、复制成本低、开放源代码普遍,使得“控制”变得异常复杂。治理必须兼顾国家利益与企业激励,需处理“两级博弈”。
因此,治理人工智能需要解决一场“两级博弈”,不仅要解决国家间的战略互动,还要解决私营企业间的战略互动,这增加了制定人工智能治理机制的复杂性。
要建立人工智能全球治理机制,全球人工智能强国需首先确定共同可接受的条款。
非西方强国未必愿接受以削弱自身发展为前提的治理协议。此外,技术飞速进步和国家间的不信任,可能使治理方案因政治动机遭到拒绝。巴鲁克计划的例子也暗示,旨在永久削弱战略对手在重要新技术中优势的政策可能适得其反。
人工智能治理的核心要素包括数据、算法与算力。目前,数据与模型难以有效监管,
因此算力被认为是最可行的治理切入点,堪比核稳定机制中的铀。
高端芯片供应链集中于少数国家,理论上有利于监测与限制。但算力监管的效力取决于未来人工智能发展是否仍依赖集中式大模型训练。若小型、分布式人工智能具备高性能,则算力治理可能失效。
更重要的是,算力监管可能被视为遏制发展中国家的不公平工具,必须辅以技术转让、能力建设等“胡萝卜”以获取更广泛支持。治理机制还需权衡创新激励与风险防控的关系。
最后一个挑战是时间紧迫性。《不扩散核武器条约》生效于广岛、长崎事件25年后,而人工智能发展迅速,危险人工智能能力(如生物武器制造)可能在几年内出现。
因此,开发有效的人工智能全球治理机制更具紧迫性,留给有利的知识和地缘政治发展的时间可能更少,这可能使人工智能治理的成功比《不扩散核武器条约》的创建更难。
核治理的成功建立在两个超级大国对核稳定共识的基础之上,并历经二十年才系统化。
而人工智能治理尚无类似的“稳定理论”或国际共识。技术的不成熟性、发展速度及其政治经济影响的不确定性,使其更难以达成统一治理模式。
巴鲁克计划的教训仍具现实意义:
试图通过制度化技术劣势控制他国将引发广泛抵制
,尤其是在缺乏信任基础时。
因此,人工智能治理的前景更依赖于在特定领域(如人工智能对核稳定的影响)上寻求共识与逐步合作。
人工智能治理的有效路径或将不同于核武器治理,而是建立在动态、多边、分领域的机制创新上。尽管挑战重重,历史经验仍提供了重要启示,
帮助识别可行治理路径与避免重复过往失误。