5 min (1403 words) Read

通过确保民众的声音被真正聆听,人工智能可以增强民主制度

人们担心,人工智能正在(或很快将会)破坏民主。他们担心人工智能将夺走工作岗位,破坏经济稳定,扩大贫富差距。这可能将权力进一步集中到少数科技企业手中,并削弱旨在监管它们的政府结构。一些人还担心,科技巨头和政府可能会越来越多地将人类决策交给机器完成,这最终会以“算法政治”来代替民主制度,即由算法而非人民来统治。

这个反乌托邦式的愿景忽略了我们当前塑造人工智能发展的能力。作为人类社会,我们(至少在当前)在政治上有能力和责任来应对人工智能可能对我们造成的伤害。我们还有技术机会来利用人工智能,以便以一种增强集体治理能力的方式来增强我们的民主——而不仅仅是对人工智能进行监管。

与其他伦理和政治方面的挑战(如基因编辑)一样,人工智能治理不仅需要更多专家的干预和监管,还需要民众更多发声和参与——例如,以此探讨如何应对人工智能给经济带来的分配影响的问题。与其他全球性关切(如气候变化)一样,人工智能治理需要这种民主的声音在国际机构层面得到倾听。幸运的是,人工智能有潜力带来一种更加包容、更多参与、更广泛考虑各方意见的民主形式,包括在全球范围实现这一点。

参与性实验

40年来,许多政府都进行了试验,旨在以单纯投票以外的更丰富方式,将普通民众纳入政策制定和立法过程中。这些实验大多是在局部地区和很小范围内开展的,就像在气候等领域蓬勃发展的公民代表大会和陪审团一样。根据2020年经济合作与发展组织(经合组织)的一份报告,在近600个案例中,随机抽样选取的公民深入探讨了某一问题,并制定了明智的政策建议(在其中一个案例中,甚至提出了提案)。

但是,在这些政治实验中,也有一部分的目的是实现大规模的民众参与,就像20世纪80、90年代在巴西、肯尼亚、尼加拉瓜、南非和乌干达组织的参与性宪政进程,以及最近在智利、埃及和冰岛的情况一样——其均利用了大规模意见征询和众包活动来触达普通的民众。当然,并不是每一次尝试都获得了成功,但所有这些组成了一种重要的趋势。

一些政府还推出了形式多样的广泛意见征询活动。法国总统埃马纽埃尔·马克龙(Emmanuel Macron)于2019年发起的“全国大辩论”就是一个例子。该活动是对“黄马甲运动”的响应,约有150万人参与其中。另一个例子是涵盖整个欧盟的“欧洲未来大会”,其邀请了来自欧盟成员国的民众就欧盟政策和机构改革提出意见,有500万人访问了网站,70万人参与了辩论。

虽然其包含了一些网络在线的元素,但其过程大多是低技术且模拟式的,完全不涉及人工智能。政治家们往往会被多面的原始数据弄得不知所措,或是对这些数据的含义不甚清晰,因此很容易会忽视民众的意见。人们被允许发声,但这种声音并不总能被聆听。即使对于参与其中的人来说,对他们意见的参考也常常流于浅表。

在人工智能赋能民主的国家,人工智能的监管很可能会得到更好执行且更加有效。

更好地参考各方意见

我们现在有机会呈指数地扩大和改进这种参考过程,以便丰富多样的民众声音可以产生影响。中国台湾省就是这种转变的一个典范。

2014年台湾“向阳花运动”让精于科技的政客们上台,此后,一种名为“pol.is”的在线开源平台得以推出。从优步监管到新冠政策,该平台允许人们就任何主题表达复杂的观点,以及对他人提交的观点进行投票。它还利用这些投票来绘制民众意见的态势图,帮助贡献者了解哪些提案会获得共识,同时清晰地识别出少数持不同意见者的观点,甚至会识别出明显具有党派立场的游说团体。这有助于人们更好相互了解,减少两极分化。随后,政客们利用所得的信息来制定公共政策响应措施,其中将考虑到所有的观点。

在过去几个月中,“pol.is”已得到发展,将机器学习与其部分功能进行了整合,以便该平台更易于考虑各方的意见。现在,该平台的贡献者可以与大型语言模型(一类人工智能)互动,其可代表不同的观点群体发生,帮助个人找出其盟友、对手和其他所有人的立场。这使该平台能够更好地参考各方的意见,而这有助于进一步消除两极分化。如今,该工具经常被用来征询民众的意见,已有1200万人参与其中,几乎达到了该地区人口的一半。

一些面临着自身治理挑战的公司也看到了大规模人工智能在加强意见征询方面的潜力。Meta公司(前身为脸书)在推出更经典的技术性“监督委员会”之后(其由律师和专家组成,负责就其内容做出决策),于2022年开始尝试Meta社区论坛——其邀请了随机选定的、来自多个国家的用户群体,就气候内容的管理问题进行讨论。另一个目标更为远大的尝试发生在2022年12月。来自32个国家、说着19种语言的6,000名用户,在几天时间内讨论了元宇宙中的网络霸凌问题。Meta实验中的讨论是在斯坦福大学的专有平台上进行的,其得到了(仍较为基础的)人工智能协助:其负责分配讲话时间,帮助团队决定讨论主题,并就何时搁置某些问题提出建议。

目前,尚无证据显示人工智能可比人类更好协助这些讨论,但情况可能很快会发生变化。当这发生时,负责协助的人工智能将具有明显的成本优势——如果我们希望在人与人之间(而不是在人类和大语言模型模仿者之间,如台湾的例子)扩大深入的讨论,如从6000人扩大至数百万人的规模,这就很重要了。

翻译、总结、分析

此外,还有更多人工智能加强民主的方法正在浮现。OpenAI,即推出ChatGPT的公司,最近推出了一个名为“为人工智能提供民主信息”(Democratic inputs to AI)的资助计划。这些资助为全球致力于开发算法、服务民众讨论的十大团队提供了补贴(充分信息披露:我目前担任了其学术顾问委员会的成员,该委员会帮助制定了补助,挑选出了相关团队)。希望这些工具可以很快用于各个领域,包括推动在全球人工智能治理下民众讨论,并使其与OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)的愿景一致。

应对风险

将人工智能用于民主,也存在着风险——这些风险几乎是每个领域都存在的,如数据偏见、隐私问题、潜在的监视、法律上的挑战等。这也带来了数字鸿沟的问题,也可能将文盲和怀疑技术的群体排除在外。许多这些问题,首先需要通过政治、经济、法律和社会等手段来解决,而不仅仅是依靠技术。但技术在这方面也可以提供帮助。

例如,隐私和监视问题可以通过零知识证明(也称为“零知识协议”)来解决——其目的是在不收集参与者数据的情况下验证(“证明”)身份(例如,通过文本消息认证,或通过区块链来做到这一点)。零知识协议既可以用于在线投票,也可以用于公众讨论——例如,共享敏感信息或充当举报者的角色。与此同时,生成式人工智能可以使以前稀缺的知识和辅导资源为所有需要的人所用。作为一种与民众对话的定制式工具,它可以按照人们特定的认知风格(包括通过图像)来解释技术政策问题,并根据需要将他们口头输入的信息转化为书面输入。

尽管存在局限性和风险,但人工智能有潜力实现更好、更包容的民主;反过来,这也将为政府提供监督人工智能发展所需的合法性和知识。在人工智能赋能民主的国家,人工智能的监管很可能会得到更好执行且更加有效。

不过,民主本身也有可能成为人工智能革命的牺牲品。我们迫切需要对人工智能工具进行投资,以提升政府让民众参与、开展讨论磋商的潜力。

埃莱娜·兰德莫尔(HÉLÈNE LANDEMORE)是耶鲁大学政治学教授。她还是牛津大学人工智能伦理研究所的研究员,也是OpenAI的“为人工智能提供民主信息”计划的顾问。

文章和其他材料中所表达的观点均为作者个人观点,不一定反映IMF的政策。