外交策略

算法时代的慕安会:当AI安全遇上欧洲战略自主

2026-02-28
肖茜(Xiao Qian)清华大学战略与安全研究中心副主任

第62届慕尼黑安全会议于2026年2月13日至15日举行。如果说,过去的慕安会讨论的是坦克、导弹与联盟承诺,那么2026年慕尼黑安全会议新增的关键词则是模型、算力与芯片。

人工智能(AI)与关键技术议题在今年慕安会的密集出现,并非一次技术热点的集中展示,而是全球安全结构深层转型的信号。尤其值得注意的是,当“AI安全”成为西方政策圈的核心议题时,欧洲关于“战略自主”的讨论也明显向“技术自主”与“数字主权”方向倾斜。AI正在成为欧洲重新定义自身战略定位的重要抓手。

2024:跨大西洋的“对齐时刻”

回顾2024年的慕安会,其背景是英国布莱切利AI安全峰会刚刚落幕。拜登政府当时强力推动跨大西洋AI安全合作框架,使AI安全成为强化大西洋联盟的重要制度纽带。其核心逻辑十分清晰:在对华科技竞争加剧的背景下,美欧需要在AI安全问题上形成共同立场。

首先,通过峰会外交推动“安全优先”共识,将前沿AI视为潜在系统性风险源,需要国家层级治理介入,并围绕前沿模型风险、国家安全外溢风险、滥用与误用防控等议题构建统一风险叙事。

其次,推动国家AI安全研究所网络建设。英、美等国纷纷建立国家AI安全研究所,并与欧盟等其他联盟国家和地区推进安全研究所之间的协调合作,在模型评测、红队测试、风险分级与算力监管等领域形成制度性对话渠道。这一网络逐步成为跨大西洋的“准联盟架构”。

2月14日,英国首相斯塔默在慕尼黑安全会议上发言,称英国将要求所有AI聊天机械人提供商承担起审核和防止非法内容的责任。
2月14日,英国首相斯塔默在慕尼黑安全会议上发言,称英国将要求所有AI聊天机械人提供商承担起审核和防止非法内容的责任。

再次,美欧在出口管制与技术监管上形成协同。高端芯片限制、算力门槛管理、投资审查等政策都以“AI安全”为正当性来源。AI议题由此进入北约“新兴与颠覆性技术”框架,延伸至军事应用、战略稳定和危机管理领域。

在这一阶段,“安全治理”不仅是风险管理工具,更是联盟整合平台。AI安全成为制度粘合剂,使欧美在价值理念与监管路径上保持对齐。

2026:从“对齐”到“自主”

然而,2026年的慕安会释放出新的信号:欧洲不再只强调跨大西洋协调,而开始更明确地强调“技术自主”。

会议中关于欧洲竞争力、数字主权、供应链韧性的讨论显著升温。问题已不再仅仅是“如何与美国合作”,而是“如何减少依赖、增强自身能力”。围绕“如何弥合与美国和中国的技术差距”“如何增强欧洲数字竞争力”“如何避免过度依赖外部算力与平台”的议题,显示了欧洲内部战略思考的转向。

几位欧洲领导人在会上表达了类似立场。欧盟委员会主席冯德莱恩表示,欧洲必须减少对外部力量的依赖,增强自身独立性,这不仅涉及防务和能源,还涵盖包括数字科技在内的关键技术领域,以保障欧洲安全与繁荣。英国首相斯塔默呼吁欧洲必须构建“硬实力”,在防务、工业、科技等领域实现自立自强,并推动构建更具“欧洲特色”的防务合作架构。法国总统马克龙也强调,面向新地缘政治环境,欧洲应当加强防务与技术自主,降低对外依赖,并推动“欧洲优先”策略覆盖包括AI等数字技术在内的关键产业链。这些言论反映出欧洲领导层将战略自主从传统安全扩展到技术与AI等高端领域的政策诉求。

这一转向并非情绪变化,而有其结构性背景:

第一,算力依赖问题凸显。欧洲在高端芯片、云平台与大型模型开发方面仍高度依赖美国企业,AI竞赛放大了这种依赖。

第二,产业与安全深度交织。数据中心、芯片供应链、关键矿产等被纳入国家安全框架,技术依赖被视为战略脆弱性。

第三,联盟内部的不确定性增加。自美国副总统万斯在2025年慕安会的讲话激起千层浪后,跨大西洋关系经历连续的政治波动与政策不确定,欧洲对于长期依赖美国技术生态的风险更加敏感。

第四,美欧在发展路径上存在理念差异。特朗普时期强化国家—科技巨头联盟逻辑,强调通过本土龙头企业巩固竞争优势,欧盟则长期对科技巨头保持结构性警惕。从GDPR到《EU AI Act》,欧洲更倾向于通过规则而非平台联盟塑造秩序。美国政府对大型科技企业的高度倚重,与欧盟对科技巨头的结构性警惕之间形成了明显张力。

因此,2026年的慕安会呈现出一种微妙变化,欧洲关注的AI安全议题不仅是“如何与美国合作”,更是“如何增强欧洲自身能力”。一方面,欧洲仍然重视与美国在AI安全标准上的合作,但另一方面,欧洲也越来越强调自身能力建设。这种再平衡并非对抗,而是结构调整。AI安全既是合作议题,也是竞争议题。

AI安全:从风险工具到主权工具

欧洲战略自主原本主要体现在防务与能源领域,如今,“技术战略自主”成为新维度。这一趋势在会议讨论中体现为数字主权与技术标准制定权、关键技术供应链本土化、欧盟在AI安全规则制定中的主导地位,以及建立欧洲算力与模型能力。

在AI安全问题上,欧洲与美国的路径差异愈发清晰。在美国,AI安全讨论往往与前沿模型能力、极端风险和国家竞争紧密相连。政府与大型科技企业之间形成高度协同关系,安全更多被视为如何在保持技术领先的同时,防止能力失控或被对手利用。而对欧盟而言,AI安全首先是一个社会秩序与权利结构的问题,而非单纯的技术能力问题。通过《欧盟AI法案》等立法框架,欧盟将安全嵌入制度边界,以风险分级、合规责任、透明义务为核心,把安全问题转化为市场准入规则。

这种差异并非偶然。在高端芯片、云计算平台和大型模型能力上,欧洲仍高度依赖美国企业,短期内难以在算力和资本规模上与美国正面对抗。因此,欧洲把“安全”转化为规则与标准的主场,通过法律与合规机制争取议程主导权。AI安全不只是风险管理工具,也成为重塑技术主权的一种方式。

算法时代的欧洲定位

AI技术的发展,使全球安全竞争进入“算法时代”。在这一背景下,欧洲面临一个关键问题:是继续作为规则制定者和美国技术生态的补充,还是在算力、模型与供应链上实现更高程度的独立?

2026年1月底,欧洲议会以压倒性票数通过一份综合性报告,明确要求欧盟委员会评估并减少欧洲在半导体、云基础设施、软件和AI系统等关键技术领域对非欧盟供应商的依赖,并提出建设“欧洲技术栈(European tech stack)”及开放标准基础设施的方向性建议。这一议会决议虽无法律强制效力,但显示出政治共识已从规范治理上升到产业自主与数字主权的宏观布局。

中国外交部前副部长傅莹在MSC 2026现场,呼吁在AI创新与安全之间寻找平衡。
中国外交部前副部长傅莹在MSC 2026现场,呼吁在AI创新与安全之间寻找平衡。

值得注意的是,近来欧盟内部围绕《欧盟AI法案》的反思在明显升温。欧盟产业界与部分成员国政策制定者开始担忧,其严格的合规要求、风险分级机制与高额罚则,可能在全球AI竞争加速背景下削弱欧洲企业的创新活力。尤其在美国以产业政策和算力优势推进AI竞争、中国加速“AI+产业”融合的背景下,欧洲逐渐意识到,单纯依靠规则优势难以弥补算力、数据与资本规模上的差距。因此,近期欧盟内部讨论的焦点已从“如何立法”转向“如何在监管与竞争力之间取得平衡”,包括是否需要简化部分条款、加强对创新型企业的支持,以及通过建设本土算力与技术生态来为法案实施提供产业基础。这标志着欧盟正试图在规范性权力与战略竞争之间重新校准其AI治理模式。

今年慕安会的变化表明,欧洲正试图在规则之外补强能力,在合作之外强化自主。这并不意味着与美国脱钩,而是意味着降低单一依赖,争取更大议程主动权。

当安全讨论从核威慑转向算法风险,当联盟合作从军事演习延伸到算力共享与模型评测,慕安会已经进入新的历史阶段。未来的安全论坛将不再只讨论军队部署,也将讨论模型训练,不再只讨论条约签署,也将讨论技术标准。

在这个算法时代,欧洲能否真正把AI安全转化为战略自主的支点,将决定其在新一轮全球秩序重组中的位置。

慕安会或许只是一个节点,但它已经清晰地告诉我们,安全的重心正在从钢铁走向代码,而欧洲正在重新定义自己在这一变局中的角色。

更多文章