English简体繁體
【热点话题】:中美关系 全球治理 气候变化 脱钩 关税
中文英文中英对照
  • 杰克·沙利文 美国前国家安全顾问,哈佛大学肯尼迪政府学院教授

中美必须认真对待人工智能风险

2026-01-20
(图片来源:Instagram/Evolving AI)
(图片来源:Instagram/Evolving AI)

2024年11月,美国总统乔·拜登和中国国家主席习近平就人工智能带来的国家安全风险发表首个实质性联合声明。他们指出,美国和中国都认为“需要保持人类对使用核武器决定的控制”。

这听起来像是外交层面“唾手可得的”成果,因为找不到任何一个有理性的人支持将核武器控制权交给人工智能。但在中国政府面前,尤其在重大安全问题上,根本不存在什么“唾手可得的”成果。中国天生对美国的风险规避提议持怀疑态度,俄罗斯也曾在多边机构反对类似措辞。与美国就人工智能和核安全问题进行双边会谈,会让俄中关系出现分歧,因此,在这一领域取得进展并非板上钉钉的事。

最终,双方历经一年多的谈判,才达成这份看似简单的联合声明。声明的内容简单,其结果却意义重大,因为它表明,即使在激烈争夺人工智能领导地位的时候,这两个人工智能超级大国也能开展建设性风险管理。

此外,2024年初,我们两国的外交官和专家在日内瓦举行过一次漫长的专门会议,讨论人工智能的风险。这是关于该主题的首次会议,没有取得任何重大成果,但会议召开本身是一个重要里程碑,双方也确定了一些需要进一步研究的主要风险领域。

如今,随着人工智能在民用和军事领域研发和部署的势头加快,中美两国需要在此基础上,就人工智能的风险持续开展高级别外交磋商,即便双方都力争取得人工智能竞赛的领先地位。他们必须这样做,因为人工智能的风险真实存在,而且只会增加。

例如,随着人工智能能力的进步和普及,恐怖组织等非国家行为体可能利用人工智能威胁美国、中国乃至世界其他地区。此类威胁可能采取多种形式,包括瘫痪关键基础设施的网络攻击、难以检测或应对的新型生物武器、破坏政府和社会稳定的虚假信息宣传活动,以及能够悄无声息地在任何地方发动袭击的致命无人机。

风险还不止于此。随着美中两国军方加大人工智能的应用,缩短决策周期并改变威慑框架,人工智能系统无意之间引发冲突或导致局势灾难性升级的风险随之增加。随着人工智能在全球银行体系内扮演越来越重要的角色,如果缺乏有效的防火墙,人工智能驱动的交易可能导致市场崩盘。展望未来,我们可以想象,一个强大但目标失控的人工智能系统(其目标与创造者的初衷相悖)可能会对人类造成严重威胁。作为世界上的两个人工智能超级大国,美中两国需要直接对话,共同应对这些以及其他潜在风险。

有管理的竞争

接触并不意味着中美两国会停止激烈竞争。今年秋天,中国对微芯片和其他人工智能系统组件生产至关重要的稀土元素实施了更为严格的新出口管制,表明中美竞争已经变得异常激烈。

我在担任拜登政府国家安全顾问期间,努力确保美国在人工智能领域的领先地位,使这项技术为我们所用,而不是对我们不利。我预见到,在军事、情报和商业应用领域,以及世界各国对美国和中国人工智能模型及应用的采纳方面,竞争只会愈演愈烈。

正因为竞争如此激烈,外交才显得至关重要,哪怕是在当前局势高度紧张的时候。如果美中两国不就风险进行磋商,不探讨人工智能在应对从气候危机到公共卫生等跨国挑战方面带来的巨大机遇,贸然竞相发展,那将是极其不负责任的。

诚然,两国顶尖思想家都参与了“二轨”外交,即政府体制外的对话,这通常涉及大学、商界领袖和民间团体。此类讨论很有价值,应该继续下去。但归根结底,政府间的直接接触是不可替代的,即使最初可能规模不大。鉴于科技进步的惊人速度,以及在外交领域取得突破面临的种种可预见困难,这种接触刻不容缓。人工智能风险管理是一个未知领域,因此进展既不会迅速也不会轻松。美中两国必须立即行动起来。

许多评论人士将人工智能与数十年的核武器控制相提并论,这种类比不无道理。超级大国有责任管控强大技术带来的风险。我们过去通过军控协议成功履行了这一责任,包括在冷战最激烈的时期,但人工智能带来了不同的挑战,需要比军控更具创新性的方法。

造成这种情况的原因很多。首先,验证更加复杂。统计具有可探测特征的导弹和弹头是一回事,统计算法则是另一回事,更不用说辨别特定算法的所有功能和应用。

其次,两用挑战在人工智能领域有不同的表现。诚然,原子裂变既可民用也可军用,但和平利用核能与核武器之间界限分明,国际原子能机构在监管方面也积累了丰富经验。相比之下,同样的人工智能模型既可以促进科学研究和经济增长,也可能造成可怕的致命后果。这使得中美之间的竞争动态更难管控,机遇与风险之间的界限也更难辨别。

第三,军控讨论主要集中在国家对其他国家的威胁上,而人工智能的风险不仅涉及国家间威胁,还涉及非国家行为体威胁以及人工智能错位带来的风险。这给外交带来了不同的挑战和机遇。

第四,至少在美国,人工智能的发展并非由政府驱动,而是由私营部门驱动,且并非由一家公司主导,而是由众多相互竞争的公司主导。这意味着,旨在降低技术风险的讨论必须包括更广泛的参与者。

最后,对于人工智能能力的发展速度和范围,存在着各种各样的观点。有些人认为,它是一种“常规”技术,需要数十年才能全面普及,另一些人则认为超级智能的爆发指日可待。核武器的威力或许可以略微增强或减弱,运载工具的速度可能更快或机动性更强,但你清楚自己面对的是什么。人工智能能力的演进和影响则远没有那么明确。

担任国家安全顾问期间,我致力于确保美国政府能够应对每一种可能出现的不确定情况。这需要更高的灵活性、更精细的策略和更稳健的行事风格。核武器控制框架并非一朝一夕形成,相关出口管制、测试方案、核查协议和保障措施的制定耗时数年,而维护这些措施则需要数十年的外交努力。在人工智能领域,我们正处于类似目标的初级阶段,但实质内容和复杂性却截然不同。正因如此,立即着手降低风险显得更加重要。

全文翻译自报业辛迪加(Project Syndicate),原文标题为“China and America Must Get Serious About AI Risk”,2025