5 min (1403 words) Read

政策制定者必须遵守五项指导原则,以有效治理人工智能

人工智能(AI)将为人们的生活和社会打开一扇大门,通向突破性的科学进步、前所未见的技术机遇、破坏民主的有害错误信息以及经济上的巨大变动。在这个过程中,AI将引发全球力量结构和平衡的根本性变化。

这给世界各地的政界带来了前所未有的挑战。它们必须为日新月异的新技术建立新的规范,降低其潜在风险,并平衡各种不同地缘政治主体的利益。来自私人部门的参与者将越来越多。这将需要各国政府的高度协调,包括与战略竞争国家和对手国家进行协调。

2023年,世界各国政府意识到了这一挑战。从布鲁塞尔到北京再到曼谷,立法者们正忙于制定治理AI的监管框架,尽管这项技术本身正呈指数级发展。在日本,七国集团领导人启动了“广岛进程”,以解决生成式AI带来的一些最棘手的问题;联合国则成立了一个新的AI高级咨询机构。在新德里举行的二十国集团峰会上,印度总理纳伦德拉 • 莫迪(Narendra Modi)呼吁建立一个负责任的、以人为本的AI治理新框架;欧盟委员会主席乌尔苏拉 • 冯德莱恩(Ursula von der Leyen)主张建立一个以“政府间气候变化专门委员会”为蓝本的全新AI风险监测机构。

11月,英国政府主办了全球首个致力于解决AI安全风险的首脑峰会。即使在美国(其为最大的AI公司的所在国,传统上对监管新技术的态度犹豫不决),AI监管也只是一个时间问题,而不是要不要监管的问题——也是两党达成共识的罕见例子。

这一系列活动令人鼓舞。在极短的时间内,世界各国领导人已经将AI治理的需求视为当务之急。但就监管的必要性达成一致只是最基本的要求。确定需要什么样的监管也同样重要。AI与以往的任何挑战都不同,其独特的特征,再加上主要参与者的地缘政治和经济动机,要求富有创新性的治理制度。

AI治理不是一个单独的问题。在气候变化问题上,要实现温室气体减排的最终目标的途径可能有很多,但只有一个压倒一切的目标。AI则不同,因为AI政策议程必须同时刺激创新,以解决棘手的挑战并避免出现危险的扩散,并且它必须有助于获得地缘政治优势,而不会让世界梦游般地陷入新的军备竞赛。

AI可能成为第一种具备自我改进功能的技术。

AI权力悖论

这项技术本身的性质更加复杂。AI不能像以前的任何技术一样来进行治理,因为它不同于以前的任何技术。这不仅会带来政策挑战;其独特的特点让解决这些挑战变得越来越困难。这就是AI的权力悖论。

首先,所有技术都在发展,但AI的发展速度极快。AI的改善速率将远远超过本已十分强大的摩尔定律(摩尔定律成功预测了计算能力每两年会翻一番)。在过去10年中,用于训练最强大的AI模型的计算量每年增加了10倍,而不是每两年翻一番。过去需要数周才能完成的处理工作现在只需几秒钟即可完成。支持AI的基础技术只会变得更小巧、更便宜、更容易获得。

但AI的独特之处并不仅是计算能力的 扩展。从训练大型语言模型的能力到能够解决复杂的问题,甚至能够创作音乐,没什么人预测到了AI的发展。这些系统可能很快就能够实现准自治。这本身就是革命性的,但会带来更大的影响:AI可能成为第一种具备自我改进功能的技术。

AI很容易扩散。与任何软件一样,AI算法比实体资产更容易以更低的成本复制和共享(或窃取)。随着AI算法变得越来越强大、计算成本越来越低,这些模型将很快在智能手机上使用。此前,我们从没见过如此强大的技术能够如此广泛、迅速地普及。而且,因为其边际成本(更不用说交付的边际成本)为零,所以一经发布,AI模型就能够(且未来也将)无处不在。大多数AI技术是安全的;其中许多AI都得到了负责任的训练。但是,就像病毒一样,只要出现一个恶性或“暴发”的模型,就可能造成严重的破坏。

激励措施指向未受到治理的AI

AI的本质也暗示出其激励措施需要有所不同。军民两用技术并不新鲜(民用核扩散受到密切监测是有原因的),AI并不是第一项模糊军民边界的技术。但是,不同于核浓缩等技术的高度复杂性和资本密集性,AI技术的低成本意味着它可以被无休止地使用,无论是用于民事还是军事目的。这使得AI不仅仅是普通的软件开发;这是一种全新的、投射力量的危险手段。

从技术角度来看,限制AI的难度已经够大了。但它在丰富强大参与者并为之赋能的潜力,意味着开发AI的政府和私人企业拥有反向的动机。简言之,实现AI霸权是每个拥有竞争资源的政府和企业的战略目标。如果说冷战因核军备竞赛而得到了强化,那么今天的地缘政治竞争也将同样反映出一场围绕AI的全球竞争。美国和中国都认为实现自身AI霸权、同时避免对方这么做是一个必须实现的战略目标。这种零和博弈意味着,北京和华盛顿专注于加速AI的发展,而不是放慢其发展速度。

30年前的核监测和核查已经十分困难,而如今对AI开展同样的监测和核查,将更具挑战性。即使世界大国倾向于遏制AI,但也不能保证它们有能力这样做,因为与大多数数字世界的事物一样,AI的各个方面目前都由私人部门控制。虽然目前控制AI的少数几家大型科技企业可能会在可预见的未来延续其优势,但AI的逐渐扩散很可能会让越来越多的小型企业进入该领域,使治理变得更加复杂。无论是哪种情况,控制AI的私人企业和单个技术人员都没有进行自我监管的动机。

这些特征中的任何一项都会给传统的治理模式带来压力;所有这些因素加在一起,会使这些模式变得不够充分,并使治理AI的挑战不同于政府以往面临的任何挑战。

治理原则

全球AI治理要取得成功,就必须反映出AI的独特特征。首先是一项现实:作为一项发展极快的技术,AI的进步本质上是不可预见的。政策制定者必须考虑到,鉴于这种不可预见性,他们今天通过的任何规则可能在未来几个月就变得无效,甚至豪不相关,更不用说未来几年了。在当前使用僵硬的制度来束缚监管机构,这将是错误的做法。

相反,建立一套AI政策制定所依据的首要原则,才能以最佳的方式实现良好治理:

  • 预防性:AI的风险回报特征是不对称的;尽管AI的潜力可以带来巨大的好处,但政策制定者必须防范其潜在的灾难性负面影响。已被广泛使用的预防性原则需要根据AI做出调整,并被纳入治理制度之中。
  • 敏捷性:政策制定结构往往是静态的,重视稳定性和可预见性,而不是动态和灵活性。这不适用于像AI这样的独特技术。AI治理必须像AI一样敏捷、自适应和自我纠正,因为AI本身就是快速发展、极速进步和自我完善的。
  • 包容性:最佳的行业监管,尤其是在技术方面,总是与商业部门合作。对于AI行业来说,这一点尤为如此。鉴于AI发展的排他性(至少目前是这样)以及技术的复杂性,监管机构监管AI行业唯一适当的方法是与私人科技企业开展合作。为了反映AI的无国界性,政府应该让企业成为国际协议的缔约方。让私人企业涉足高级外交,可能会转向一个前所未有的方向;但若将拥有强大控制力的企业排除在外,将使任何将之排除在外的治理结构在一开始就注定失败。
  • 无懈可击:要使AI治理发挥作用,它必须是无懈可击的;鉴于AI能够很容易地扩散,只要制度中出现一个漏洞,就可能让危险的模型变成漏网之鱼。因此,任何合规机制都应该是滴水不漏的,其应具有较低的准入门槛以鼓励行业参与,以及较高的退出成本以阻止不合规行为。
  • 针对性:鉴于AI的通用性质和治理AI的复杂性,单一的治理制度不足以解决AI风险的多种来源。在实践中,要确定哪些工具适合针对哪些风险,就需要对离散的潜在AI影响进行实时、有效的分类。因此,AI治理必须具有针对性、以风险为基础且具有模块化,而不是一刀切。

治理AI将是国际社会未来几十年面临的最艰巨挑战之一。与监管AI同样重要的,是以正确的方式来监管AI。目前关于AI政策的辩论往往倾向于在进步与失败(或地缘政治和经济优势与风险缓释)之间进行讨论,而这是错误的。此外,各方往往会使用类似于解决过去问题的范式,而不是创造性地思考解决方案。这在AI时代是行不通的。

良好的政策制定至关重要,而要做到这一点有赖于良好的机制。为了建立这些机制,国际社会需要就如何思考AI问题达成一个概念框架。我们提出了上述原则,也即为了抛砖引玉。

Ian Bremmer 伊恩•布雷默(IAN BREMMER)是欧亚集团(Eurasia Group)和GZERO传媒的总裁兼创始人。
Suleyman 穆斯塔法•苏莱曼(MUSTAFA SULEYMAN) 是Inflection AI的首席执行官兼联合创始人。

文章和其他材料中所表达的观点均为作者个人观点,不一定反映IMF的政策。