English简体繁體
【热点话题】:中美关系 全球治理 气候变化 脱钩 关税
  • 肖茜 清华大学战略与安全研究中心副主任

信任缺失时代的拐点:中美人工智能博弈走向何方

2026-02-26

回望2025年的中美科技关系,人工智能是最具象征意义的关键词之一。它既是新一轮技术革命的核心动力,也是当下大国博弈中最敏感、最不稳定的变量。围绕人工智能展开的竞争正在重塑中美关系的结构性走向,也为全球技术治理与国际安全投下长长阴影。

但如果拉长时间轴看,在过去十余年间,中美在人工智能领域的关系曾呈现出高度互动的特征。在深度学习快速发展的早期阶段,中美研究人员长期活跃于同一批国际顶级学术会议,在算法、安全与伦理等议题上展开专业讨论;企业层面亦在相对开放的技术生态中展开竞争与合作;关于 “以人为中心”“防范算法偏见”“保持人类控制”等问题的共识,最初正是在这样的跨国知识共同体中逐步形成。

然而,这条原本并非零和的轨迹,近几年正在发生明显偏转。

人工智能地位的变化首先体现在美国政策叙事的转向之中。随着技术能力的跃升与应用场景的外溢,美国对人工智能的认知框架从“新一代通用技术”逐步转向“关键战略能力”,并进一步上升为国家安全竞争工具。

2月16日至20日,印度AI影响力峰会在首都新德里举行,美国多间科技公司均在峰会期间宣布,将与印度公司展开AI领域合作。
2月16日至20日,印度AI影响力峰会在首都新德里举行,美国多间科技公司均在峰会期间宣布,将与印度公司展开AI领域合作。

特朗普再度执政后的美国官方文件明确提出要“赢得人工智能竞争”,并将人工智能视为决定未来国家安全、军事优势与经济竞争力的核心技术。这一表述本身标志着人工智能被正式纳入地缘政治竞争的主战场。技术问题不再仅仅关乎效率与创新,而是被重新编码为攸关国家命运的安全议题,人工智能的“安全化”正在深刻改变中美互动的逻辑基础。

在此背景下,信任缺失成为合作最现实的约束。在人工智能治理中,“信任”一词常常被提及,包括对机器的信任,对人机协同的信任,对使用系统的人的信任等等。信任是最基本的要素,也是最宝贵的资源。在国际关系中,信任从来不是抽象的情感变量,而是一种制度性、结构性的产物。当前中美在人工智能领域面临的,正是一种典型的“信任赤字”状态。

一方面,美国日益倾向于从制度竞争与战略对抗的视角理解中国的人工智能发展,将其视为潜在的系统性挑战;另一方面,中方认为美国围绕人工智能构建的是排他性规则体系与技术联盟,其安全叙事背后隐藏着遏制发展的战略意图。

人工智能本身的特性进一步放大了这种不信任。高度复杂、不透明、快速演化的技术体系使得意图难以验证、风险难以评估,由此引发的不只是技术事故的担忧,更是战略误判的恐惧。

在这种互疑结构下,即便双方在某些风险问题上具有高度共识——例如人工智能在军事领域的失控风险、生成式模型的滥用问题、关键基础设施中的AI安全漏洞——也很难转化为实际合作,因为任何合作倡议都会被首先放置在“是否有利于对方”的政治天平上衡量。换言之,问题不在于中美是否理解人工智能的风险,而在于是否相信对方会以相对克制、负责任的方式行事。

需要指出的是,对于信任本身,中美之间存在着显著的认知差异。西方安全治理传统中,常常强调通过规则、机制和透明度来“逐步建立信任”。而在中国的外交与安全文化中,信任更常被视为合作的前提条件,而非合作的自然产物。对中国而言,在高度不信任的环境下推进技术敏感领域的制度化合作,往往被视为风险大于收益。

但人工智能的特殊性正在悄然改变这一逻辑。与传统技术不同,人工智能具有高度不确定性、低可预测性和快速扩散性。一旦失控,其外溢风险往往跨越国界、阵营与制度差异。从此意义上讲,在人工智能领域进行有限度的合作正是在努力寻求“风险共识”。

2月19日,OpenAI行政总裁奥尔特曼在印度新德里举行的AI影响力峰会上发表演讲。
2月19日,OpenAI行政总裁奥尔特曼在印度新德里举行的AI影响力峰会上发表演讲。

当前条件下,要求中美在人工智能领域实现战略互信并不现实,更可行的路径是推动一种以风险为导向、以技术问题为中心的有限合作。这种合作不以价值趋同或制度融合为前提,而是聚焦于几个相对“低政治敏感度、高全球公共性”的议题领域,例如人工智能系统失效和事故的信息交流、高风险AI应用的基本安全原则、对模型滥用、误用风险的技术性讨论、在国际多边平台上进行最低限度的技术沟通与风险通报等。这类合作的目标并非消解竞争,而是防止竞争失控;并非建立信任,而是降低误判概率。

当前全球人工智能治理呈现出明显的阵营化和碎片化趋势,部分国家通过联盟机制加速规则整合,将包括中国在内的许多国家排除在规则制定之外。这种结构性排他,正在削弱全球风险治理的整体有效性。

根据约翰·赫茨的“安全困境”理论,在当前的环境中,中美若完全放弃在人工智能领域的任何合作,不仅无法提升自身安全,反而可能加剧系统性不稳定。历史经验反复证明,在高度竞争的国际体系中,最低限度的沟通与合作,本身就是一种重要的战略克制机制。

2026年伊始,我们仍想提出这个看似朴素却愈发尖锐的问题:在一个信任严重缺失的时代,中美在人工智能领域是否仍然存在合作的可能?这一问题并非空洞的理想主义追问,而是事关全球技术风险管控、国际安全稳定乃至人类共同未来的现实议题。答案或许并不取决于宏大的政治宣言,而取决于双方是否愿意接受一个更为现实的判断——决定合作前景的,已不只是技术能力本身,而是双方是否愿意在高度不信任的环境中,仍为避免失控保留最低限度的理性空间。

站在时代的拐点之上,中美或许难以在人工智能领域成为伙伴,但仍有责任避免成为风险的共同制造者。这样的选择未必能够化解所有分歧,却可以成为这个不确定年代中仍然值得尝试的稳定器。

点击此处,下载电子版原文
点击此处,下载电子版原文

本文转载自公众号“清华大学战略与安全研究中心”,原文标题《CISS年度报告〈拐点2025〉——肖茜|信任缺失时代的拐点:中美人工智能博弈走向何方》。