![]() |
回望过去一段时间,中美技术竞争如火如荼,然而双方也在人工智能合作方面取得了部分积极进展。2024年5月中旬,双方在瑞士日内瓦举行首轮政府间人工智能对话,就人工智能科技风险、全球治理机制以及彼此关切的议题深入交流,标志着中美正式将人工智能议题纳入政府间对话。2024年11月,中国国家主席习近平与美国前总统拜登会晤,就确保核武器始终处于人类控制之下达成重要共识,为人工智能军事化问题划定一条重要的“红线”,也为双边乃至全球层面技术风险管控与战略沟通奠定了基础。
特朗普执政后,尽管中美在人工智能领域激烈竞争,但在2025年釜山元首会晤后,两国均表示要在人工智能领域继续推进互利合作,显示出无论是民主党还是共和党政府,都认为有必要在人工智能这一议题上与中国保持接触与协作。
![]() |
| 2026北京亦庄人形机器人半程马拉松于4月19日在北京亦庄举办,百余台国产人形机器人同场竞技。 |
不可否认,当前中美政治氛围下,双方在人工智能与核融合(AI-nuclear nexus)方面实现更深层次、更具体合作依然面临诸多现实制约。核武器与其他关键战略军备具有高度敏感性,导致双方在短期内难以做到相互公开透明,而军备领域的核实(verification)困难与信任缺失进一步增加对话难度,但中美仍有必要最大程度探索在非敏感领域的合作。在涉军事问题上,中美可以尝试将重点放在如何推广、深化已有原则性共识上,而非立即开展深度军事对话或技术性合作。在非军事领域,中美则有必要在技术风险研判、伦理问题探讨与技术“向善”方面展开对话合作。
在军事领域,尤其是管控人工智能军事化应用风险方面,中美元首达成的原则性共识为下一步合作奠定重要基础。当前特朗普也正着力打造其“和平总统”形象,为中美在横向、纵向两个方面深化共识提供了契机。
![]() |
| 3月24日,中国国防军事主题论坛首次公开亮相最新研发的两款军用机器狗——“影獒”与“铁獒”。 |
在横向扩展上,中美可考虑往两个方向努力。一是把这一共识向其他核大国推广,包括英国、法国、俄罗斯等,逐步将双边共识转化为更具包容性和约束力的多边准则。同时,中美还可以考虑将这一议题纳入联合国等多边框架进行讨论,并在联合国体系内推动发表共同倡议或原则性声明,重申保持人类对于使用核武器决定的这一核心原则,同时强调必须负责任部署和使用其他军用人工智能。二是中美可以考虑将这一原则进一步向更广泛的战略武器体系延伸,尝试将具备威慑力和巨大破坏力的常规战略武器纳入其中。但关于相关战略武器的定义和适用这一原则的范围需要双方进一步探讨,也可以先从二轨对话开始。
在纵向深化上,中美可在现有共识基础上探讨深化合作的具体路径。例如,在针对核武器系统的风险评估、管控机制上进一步细化,尝试将核武器系统和可能冲突场景拆分为具体部署、决策环节并评估潜在风险点,推动形成更细化、可操作的风险评估与管控框架。还需注意的是,全面禁止人工智能进入核指挥、控制和通信(NC3)系统并不现实,而且双方也需考虑人工智能与核武器体系结合可能带来的积极意义,而不是全面禁止二者融合。因此,如何确定更多彼此都能接受的“红线”变得尤为重要。
在此背景下,二轨外交可作为维系中美沟通的重要补充机制。双方智库、学术界及退役军方人士可以在非正式但制度化的对话平台上,就军用人工智能的风险评估、伦理准则以及危机情境中的决策等议题展开持续讨论。此类交流既能够在一定程度上摒除政治干扰,保持沟通延续性,也有助于为重启政府间磋商积累政策储备与专家共识。
![]() |
| 美国国防部加快推动人工智能技术的军事化应用。(图源:美国国防部) |
在非军事领域,中美也可以共同推进人工智能全球治理。首先,中美双方可以聚焦人工智能带来的跨国界风险,并推动形成被更多国家接受的风险分级、分类与评估框架,并共同探索应对之策。无论是技术层面的智能体失控、大模型不可解释性和“幻觉”输出问题,还是应用层面的人工智能生物安全风险、人工智能“赋能”恐怖组织等非国家行为体、深度伪造对社会信任体系的侵蚀,这些都是中美共同面对的治理挑战。此外,从风险切入也有助于将中美从彼此防范的“技术竞争者”再定位为“风险共担者”,使中美即使处于“战略竞争”背景下,也能够在人工智能风险评估与管控领域找到共同关切。
其次,中美可以围绕人工智能对经济与社会结构的深刻影响开展对话。人工智能正在重塑劳资关系并改变传统生产模式,越来越多的行业呈现“无人化”和高度自动化倾向,这既可能提升生产效率,也可能造成结构性失业风险。如何确保人工智能提升人民生活,而不是加大社会资源分配差距,如何通过教育改革、技能转型和数字基础设施普惠化等政策安排提升公众对技术变革的适应能力,是双方共同关注的问题。中美率先推进此类对话也能为全球其他国家提供思路参考。
![]() |
| 2026年美国工业自动化及机器人展览会是北美地区规模最大、影响力最高的机器人与自动化技术盛会,将于6月举行。 |
再次,中美可以进一步探讨如何利用人工智能为全球公共治理提供新的解决方案。在气候治理领域,人工智能可用于灾害预测、极端天气模拟和应急响应;在国际和平与安全领域,人工智能技术有望被用于辅助冲突调解、维和部署优化与危机预警;在全球发展领域,通过推动开源技术和基础算法共享,也将有助于进一步缩小南北技术鸿沟。因此,中美可以依托现有联合国框架,将人工智能公共产品合作嵌入多边议程中,推动在气候监测、灾害管理、公共卫生预警系统、农业智能化、跨境传染病预测、基础教育数字化等领域的技术合作试点,使人工智能真正成为服务全球公共利益的工具。在这些领域开展合作不仅能够展现人工智能技术的正面价值,也有助于在两国“竞争激烈”的技术领域注入合作因素,改善两国关系。
最后,中美还应当共同应对人工智能带来的伦理与法律难题。人工智能技术的快速发展使得如何定义人类身份、保持人类主体性与价值感等基础性伦理问题变得尤为凸显。如何在技术高度自主化的时代保持人类对关键决策过程的有效掌控,为人工智能的研发与部署确立基本伦理原则,并在出现损害后明确责任主体并建立可追责机制,已成为全球共同关注的课题。围绕这些问题展开对话,有助于中美进一步增强互信,并探索、强化国际社会对技术发展的规范性共识。
中美在人工智能全球治理领域的合作并非意在构建某种“G2”模式,而是基于两国在技术创新能力、产业体系布局以及国际影响力而提出的要求。任何有效的全球层面技术治理都离不开中美参与。而人工智能作为典型的颠覆性技术,其发展不仅会深刻改变经济、社会与安全格局,也必然塑造未来国际秩序的规则基础和治理体系。如果中美能率先在风险认知、伦理原则和公共应用等领域迈出合作步伐,将具有大国带头的示范意义与引领作用。






