English简体繁體
【热点话题】:中美关系 贸易战 全球治理 COVID-19 气候变化 脱钩
中文英文中英对照

规范的人工智能与实际挑战:中美推动科技道德伦理治理

2024-01-02
9ee8937b2e418c79c857a0ef51c03b84.jpg

人工智能的最新发展促进了一种范式转变,特别是在中美关系的背景下。国际人工智能安全协议,以及拜登总统和习近平主席的双边讨论,开启了全球人工智能治理的新机遇。尽管在协调两国存在差异的政策方面面临挑战,但在就人工智能开发建立统一的安全和道德标准方面,存在着重要的机会。它的执行可能困难重重,但实施却意义重大。

上个月英国主办的人工智能安全峰会上,中国和美国的角色重要但又截然不同。国际人工智能安全协议强调,人工智能系统应该“设计安全”,表明各方都认识到人工智能开发过程中采取防患于未然的安全措施的重要性。商务部长吉娜·雷蒙多代表的美国在此次讨论中发挥了关键作用,凸显美国作为人工智能技术全球领导者的地位,表明美国对塑造人工智能治理的兴趣。美国的参与,强调着其对开发安全且合乎道德伦理的人工智能技术的承诺。考虑到中国在全球人工智能发展中的重要作用,中国参加此次峰会显得至关重要。中国代表出席此次峰会,表明中国参与人工智能安全问题多边讨论的意愿。然而,中国、美国和欧洲之间的信任程度不同,各自的技术立场不同,这也说明了国际人工智能治理的复杂性和敏感性。

同样,拜登总统与习近平主席在旧金山对话,标志着中美在人工智能领域扮演着关键角色。作为世界领先的经济大国和技术创新国,它们在人工智能方面的合作方式可以为它的全球治理标准定下基调。此次互动表明,两国都认识到人工智能的战略意义,及为使人工智能以安全、合乎道德伦理方式发展进行合作的必要性。前面提到的人工智能安全协议和拜登与习近平的对话,代表了两国之间利益和责任的融合。这种合作对于建立人工智能的安全及道德伦理全球标准至关重要,它超越了中美关系里常见的传统竞争因素。

美国的做法

拜登政府的政策旨在解决人工智能开发中的道德伦理问题,强调消费者保护、工人权利以及保护少数群体。有关人工智能的行政命令,重点是关注道德伦理规范和标准,确保以负责任的方式使用人工智能技术,同时尊重隐私和公民自由。这说明美方致力于管理人工智能的社会影响,认识到其改变行业和影响劳动力的潜力。美国政府在道德伦理层面对人工智能的关注,缘于外界对人工智能社会影响日益增长的担忧,特别是在监视、偏好和数据隐私等领域。

此外,正如白宫所说,美国的人工智能监管政策也包括大量的相关研发投资。这些投资旨在增强该国在人工智能领域的技术实力,同时确保创新符合道德伦理标准。重视研发,是维持美国在全球人工智能领域竞争优势宏大战略的内容之一。然而,该战略也承认,需要平衡创新与负责任的发展。该方法与欧盟更集中的管理战略形成鲜明对比,显示出美国在人工智能治理方面灵活弹性的立场。加州州长纽瑟姆关于人工智能的行政命令,就是这一点的最佳证明。

中国的做法

与美国相比,中国的人工智能监管方式反映了其独特的治理风格和政治要求。中国政府越来越多地将人工智能治理与公众态度和社会效益相结合,同时继续保持对稳定和弘扬社会主义核心价值观的关注。这种不断变化的立场表明,中国希望在创新与务实监督之间取得平衡,通常倾向于务实,而不是对创新的严格限制。政府做法的显著特点,是努力维护社会和政治稳定,这一重点工作促成了人工智能系统的发展。比如,利用大规模数据收集激励公民遵纪守法的社会信用系统。

中国最近的法规,特别是有关生成式人工智能的法规,提出了具体的要求和禁令。 2023年7月13日,《生成式人工智能服务管理暂行办法》正式施行。这些临时措施是首批专门针对生成式人工智能的措施之一,其中包括维护社会道德伦理、防止歧视、尊重知识产权、保障个人身心健康。运营层面的要求也已实施,重点领域是训练数据、隐私权、内容审核和用户参与等。这些法规反映了中国在人工智能治理层面更加细致入微的方法,平衡了管控与创新。

此外,中国有可能出台全面的人工智能法律,体现了在人工智能快速发展情况下建立健全人工智能法律基础设施的紧迫性。这项立法的背后,是中国政府希望建立起人工智能等技术的监管框架。该法律草案正由全国人大审议,表明中国正在努力加强人工智能治理框架。

应对挑战

人工智能安全协议(如最近的国际协议)的执行,提出了一系列独特的挑战,其中问题的复杂性与核武器控制协议相同。主要障碍在于,这些人工智能协议没有约束性。与核协议不同,人工智能安全协议没有执行监测和核查的有形实体。人工智能是无形的,加上快速的技术进步,使得监管框架难以有效监控和强制执行合规要求。由于人工智能开发的去中心化性质,协议执行工作变得更加复杂。无数实体为人工智能技术的进步做出贡献,但往往没有得到协调一致的监管。

此外,人工智能的道德和安全标准通常是主观的,并且可能因文化而异,因此很难就违反这些协议的行为达成共识。与相对明确的核扩散危险不同,人工智能的伦理问题更加微妙,且往往存在不同的理解。联合国成立了人工智能工作组,让人们看到人工智能安全标准有望得到一致的应用和执行。但是,目前的人工智能治理格局还缺乏专门的全球监督机构。因此,虽然人工智能安全协议的建立标志着全球治理迈出重要一步,但有效一致的执行需要新的监测策略、对道德标准的统一理解,还有可能需要建立新的国际监管机构。

利用机遇

尽管由于治理风格和政治意识形态不同,协调美国和中国的人工智能政策面临着重大挑战,但也存在着众多机遇。协作能够融合两国的技术优势和政策见解,形成强大的全球人工智能治理框架。这种协同作用,能够促进人工智能安全措施的创新、推动人工智能的发展符合道德伦理,推动全球标准的制定。此外,还可以促进人工智能的联合研发,不仅使两国受益,而且使整个国际社会受益。

扩大中美在人工智能治理方面的合作潜力,一个重要的机遇在于建立对待人工智能伦理问题的统一方法。两国都处于人工智能研究和开发的前沿,能够对全球规范和实践产生重大影响。双方这一领域的合作,可能促成制定一套共享的道德准则,解决人工智能偏好、隐私和透明度等问题。这些指南可以作为全球人工智能发展的基准,确保人工智能系统不仅技术先进,合乎道德伦理,且对社会负责。此外,这种合作可以帮助弥合不同文化和社会价值观的差距,形成针对人工智能伦理的更具全球包容性的政策。

展望人工智能治理的未来

中美两国的合作可以对全球人工智能治理的未来产生重大影响。通过领导全球安全和道德标准的制定,它们可以确保人工智能技术以负责任的方式开发和运用。对于确保未来人工智能成为向善的力量、促进社会利益和防止滥用,这种领导力至关重要。因此,不断发展的人工智能不仅关乎技术的进步,还关乎创造符合人类价值观和全球安全的未来。