数旗智酷编译 作者︱梅克拉·潘迪塔拉特尼、丹尼尔·维纳

2017 年,在联邦通信委员会 (FCC) 的一次公开征求意见期间,机器人向该机构发送了100多万条虚假选民的评论,呼吁废除网络中立规则。监管机构发现了这一颠覆政策流程的秘密企图,因为这数十万条评论惊人地相似。此后的六年里,人工智能 (AI) 工具变得越来越复杂,类似的欺骗政策制定者的行为变得也越来越难以发现和防范。这种令人担忧的风险及其对参与式政府的影响要求我们采取紧急行动。

开放和负责任的政府是美国政治传统组成部分。其基本原则是公众应能充分获得信息,并有机会参与重要的政策决策。从电报的发明到社交媒体的爆炸式增长,新技术为公众民主参与创造了新的途径。然而,这些技术也常常创造出新的工具,用于歪曲公众舆论并扭曲政策制定。人工智能也不例外。

与之前的技术革命一样,人工智能的发展也带来了希望:随着时间的推移,它可以提高政府了解公众需求的能力,并帮助公民参与政策决策。特别是,可以部署自动汇总和分析来增强官员消化公众反馈的能力。但是,要实现这些潜在的好处,必须要有防护措施,以确保人工智能系统准确并适合当前的目的,防止系统偏差反映社会历史不平等和削弱特定社区的声音,并在出现这种结果时减轻影响。

联邦通信委员会(FCC)的事件体现了反对者如何利用人工智能工具来破坏公众对政府决策的真实意见。生成人工智能的新发展使大规模欺骗行为变得更加复杂,可以有效地模仿个人对公共政策的反馈,从而导致官员被难以检测的人工智能生成内容欺骗或转移的危险。利用生成式人工智能,欺诈者可以从虚假利益相关者那里生成大量看似真实的政策意见书,从而操纵公众的情绪感知。如果恶意部署的规模足够大,这种行为可能会削弱政府响应美国人民需求的能力,并最终破坏人民对政府的信任。与此同时,管理选举的公职人员面临着严峻的风险,即恶意行为者会利用人工智能工具放大对选举过程的毫无根据的担忧,在选举日之前(或当天)分散选民的注意力,或将办公室日常工作淹没在机器人发送的文件请求中,而这些请求是否由人工智能生成很难被识别。

这些危害需要有针对性的政策干预。为了解决这些问题,政府机构应采取以下措施:

  • 在可行的情况下,实施高精度系统来验证人类活动,并特别注意可访问性和数据隐私。
  • 扩大亲自参与政府决策的机会,包括公开听证会和市民大会。
  • 持续开展针对已知选民(例如那些使用过政府服务或领取过公共福利的选民)的调查,以获取有关计划实施的反馈意见。
  • 修改适用的法律和规则,使各机构有权无视由机器人或自动系统(包括由生成式人工智能驱动的系统)欺诈性传送的有关法规提案的意见书。
  • 建立监管措施,规范政府使用人工智能来分析、总结或汇总公众意见,或对法规、公共政策的起草提供实质性帮助,包括通过制定要求来防止偏见和确保准确性。
  • 定期与民间组织接触,以更好地了解利益相关者和选民如何使用人工智能与政府互动并向政府进行宣传。

公民参与和政府响应:人工智能作为歪曲民意的工具

正如政治理论家罗伯特·达尔(Robert Dahl)的著名论述,“民主的一个关键特征是政府对公民的偏好做出持续的回应。” 长期以来,政客、专家和学者们一直在争论美国政府是否履行了这一承诺。从历史上看,争论的焦点主要集中在那些削弱公民选择领导人能力的因素上,如彻底剥夺公民选举权、立法机构分配不均和选区划分,以及影响公职人员积极性的因素,比如富有的竞选捐赠者所发挥的巨大作用以及随之而来的腐败风险。然而,提高回应能力的一个基本前提是官员有能力评估公众的实际需求。在政策制定者能够解决选民偏好之前,他们必须首先能够收集这些偏好是什么。

当然,政策制定者拥有一系列工具来帮助他们了解公众的需求。其中一些工具,如民意调查,相对来说不会受到人工智能的干扰(至少目前如此)。但与民调相比,其他方法更容易受到人工智能操纵,尤其是当民意调查依赖于基于地址的招募等方法时。而民调的局限性——包括其捕捉细微立场和观点细节的微弱能力——也是众所周知的,这就是为什么直接与公众接触和征求公众意见的方法仍然至关重要。在此,我们简要介绍了解公民倾向的两种常见工具:针对民选官员的信函和提交给监管机构的在线公众意见。

长期以来,从总统到县长,民选官员都依靠书面通信来掌握选民的脉搏,尤其是关注特定问题的知情选民。过去,外部团体曾试图通过造势来歪曲对选民情绪的评估,即招募个人发送通常预先写好的信件,给人一种真诚的基层情绪的假象。然而,生成式人工智能可以让恶意行为者轻松、大规模地创建来自假选民的特有信息,这些假选民表面上是政策立场的拥护者,这大大增加了侦查歪曲民众偏好的难度。

民选官员能辨别出人工智能生成的内容和真人撰写的选民邮件吗?最近的研究 表明并非如此。2020 年,研究人员进行了一项实地实验,他们向 7000 多名州议员发送了大约 35,000 封电子邮件,倡导他们在一系列政策问题上的立场。其中一半是真人写的;另一半由当时最先进的生成式人工智能模型 GPT-3 撰写。为了探索立法者是否能够识别人工智能生成的内容,研究比较了人工撰写的信件和人工智能生成的信件回复率(理论上立法者不会浪费时间回复人工智能机器人的呼吁)。在三个问题上,人工智能和人类撰写信息的回复率在统计上没有区别。在另外三个问题上,人工智能生成的电子邮件的回复率较低,但平均只有2%。

这一发现表明,一个能够轻松生成成千上万封独特邮件的对手,有可能歪曲立法者对选民最关心问题的看法,以及选民对任何特定问题的看法。此外,一些立法者报告称有助于他们识别可疑内容的许多不一致性和问题,随着更先进的人工智能模型的出现而变得不那么普遍 。例如,GPT-3 在撰写对枪支管制立法采取保守立场的电子邮件时难以保持逻辑一致性,但 GPT-4 的更新的算法能够更好地避免此类问题。最先进的开源模型现在也足以胜任这些写作任务,因此想要把精灵放回瓶子里即使不是不可能,也是变得很困难。

生成式人工智能还可能通过破坏将公众意见纳入监管过程的主要机制——公众意见征询,从而威胁到民主响应。行政机构在政策制定中发挥着至关重要的作用——尤其是在联邦层面——但它们与选举政治的相对隔离可能会引发对公众问责的担忧。通知和评论流程虽然远非完美,却是非民选机构官员在机构规则制定过程中用来评估公众偏好的主要工具之一。技术,尤其是 2002 年电子规则制定的出现,一直被认为是通过“加强公众参与……从而促进更好的监管决策。” 来解决民主问责问题的一种方式。Regulations.gov 网站是机构规则制定相关信息的官方交流中心,它邀请普通公民“做出改变,提交你的意见,让人们听到你的声音。”

但是,正如联邦通信委员会(FCC)网络中立规则制定过程中的破坏事件所显示的那样,这一过程很容易被颠覆。尽管大量具有可疑相似语言模式的评论揭开了网络中立性方案,但新的生成式人工智能技术可以轻松克服这一问题,通过创建数百万条独特且多样化的评论来推动特定的政策立场。因此,各机构将更确定哪些评论真正代表了公众的普遍情绪,甚至是最直接相关的利益相关者的观点。

认识到恶意使用人工智能所带来的威胁,科技公司正在竞相开发能够识别人工智能生成文本的工具。然而,要有效地做到这一点所面临的挑战是艰巨复杂的。2023 年 7 月,OpenAI 由于准确性有限而停止了其人工智能分类器工具。鉴于《行政程序法》中对公众意见的要求,只有高度准确的筛选工具才有可能通过联邦规则制定流程的考验。即使未来技术的进步成功产生了可靠和有效的工具,不同部门和不同级别的政府在获取和使用这些工具的能力上也可能存在差异。

选举的挑战:人工智能作为转移资源和扭曲公众需求认知的工具

生成式人工智能有可能扰乱选举办公室的工作,这对民主构成了重大风险。公开记录法(也称阳光法)是重要的透明度工具,它可以让公众了解政府的内部运作并追究官员的责任。但在过去的选举周期中,否认选举的人利用这些法律来分散一些选举办公室官员的注意力,使其超负荷工作,在关键时刻取代了选举管理的重要工作。在 2022 年中期选举之前,与 2021 年 1 月 6 日美国国会大厦袭击事件有关的资金雄厚且充满阴谋的全国性组织动员公民,向当地选举办公室发出大量文件请求。其中一些请求寻求敏感信息,如投票记录、选举安全协议或投票机序列号。虽然州公共记录法可以正确地阻止选举办公室披露危及选举安全的信息,但地方官员并不普遍知道根据记录要求必须或不可以披露哪些信息。未来,选举否认者和其他恶意行为者可能会通过部署由生成式人工智能驱动的机器人来加强这种努力。州法律通常不会限制使用机器人提交批量请求,也不允许官员拒绝响应自动批量生成的请求,即使目的是在选举日之前转移官员对管理选举关键工作的注意力。

面对极其有限的资源,选举办公室还要依靠公众的意见来提供相关的选举信息,并确定任务的优先次序。选举官员必须了解残疾人、少数民族语言群体和其他弱势群体的需求,特别是当这些群体在选举日登记投票或投票时遇到问题时。官员们还必须了解在如何投票方面常见的困惑,并能够有效解决目标群体对选举安全的担忧。

恶意使用生成式人工智能可能会危机这些重要角色。人工智能产生的欺骗性大众评论会歪曲或淹没真正的公众问题和反馈,可能会导致对有需要的选民的支持不足,并误导选民教育工作。它们还可能加剧限制性选民规则,造成人们对选举过程毫无端担忧更加普遍的印象,从而给投票带来更多障碍;过去,虚假信息传播者利用对选举公正性无端担忧,在没有正当理由的情况下推行限制投票权的政策。因此,在人工智能的辅助下,对公众需求感知的扭曲可能会使选举官员对选民的反应更加迟钝,更无法传达重要的选举信息,也更不可能向选民提供他们最关心的问题的信息。

人工智能对参与型与响应型政府的潜在价值以及所需的警戒线

如果说生成式人工智能和其他人工智能工具给参与型和响应型政府构成了风险,那么它们也带来了机遇——最值得注意的是它们有潜力帮助政策制定者更好地管理和回应公众的意见、反馈和问题。但是,政府在使用人工智能为敏感任务提供实质性协助时,也需要制定相关标准,以防止出现不当、有偏见或不准确的结果。(实质性协助是指使用人工智能系统来执行比按字母顺序排列文档或按日期或文件大小对文档进行排序更复杂的任务。)

政府部门已经在使用非生成式人工智能向公众提供信息,并对寻求信息或服务的选民做出实时回应。美国和其他地方的许多政府机构都使用人工智能驱动的聊天机器人来提供全天候的选民援助。这些工具通常不是由生成式人工智能驱动的,而是基于规则的聊天机器人,可以识别关键字并提供预先审查好的回复,或者是对话代理(类似于苹果的 Siri),使用机器学习和自然语言处理为选民提供帮助。尽管聊天机器人经常面临公众的抵制——在一项调查中,超过半数的受访者对与聊天机器人互动表示负面看法——但随着聊天机器人的不断改进,如果政府部门能采取适当的保障措施来确保聊天机器人的正确使用,那么这些非生成式人工智能技术就能帮助政府节约资源并提供回应速度。

各级政府的政策制定者都要接受大量来自公众的帮助,这使得本已不堪重负的工作人员的应对能力变得捉襟见肘。在联邦规则制定方面,这些挑战都有详尽的记录。各机构可能会收到数万甚至数十万条关于某项拟议政策的意见,其中大多数都被敷衍处理。地方行政机构在回应公民的沟通请求、反馈和问题方面也同样举步维艰。例如,在对有关如何申请公共住房信息的请求的响应情况的审计中 ,平均约 40% 的请求没有得到答复。向公众进行宣传也是国会、州和地方立法机构的一个主要关注点。据国会管理基金会估计,许多国会办公室将大约 50% 的人力资源用于管理和回应选民沟通。

回应公众宣传会给政府部门带来机会成本,但忽视回应也会带来问题。未能得到政府官员的回应可能会削弱公民对官员政治效能的看法,并导致选民更加脱离政治进程。在某些情况下,这甚至会产生更直接、更具体的后果,例如公民无法找到获得应得福利所需的信息或援助。如果非民选政府官员忽视或忽略公众的信息时,情况尤其令人不安。在联邦规则制定背景下,有充足的证据表面,监管机构倾向于忽视大多数侧重于政策偏好或价值观的意见,而倾向于一些相对详细的技术意见(通常来自行业或其他既定利益相关者),这可以说削弱了影响数百万人生活的行政决策的民主合法性。这种做法还往往会使政策结果向更有实力的支持者倾斜,这些支持者拥有足够的资源来收集机构工作人员可能会回应的技术信息。

人工智能有可能解决这些缺陷,并改善机构规则制定流程。最近的几篇文章探讨了新的人工智能工具如何帮助机构工作人员审查和总结在备受瞩目的规则制定过程中收到的数千甚至数百万条公众意见。例如,监管机构可以使用在与规则制定相关的材料和评论语料库上训练的语言模型来协助处理、综合和总结公众提供的信息。这一策略可能会促使监管机构在制定政策时考虑更多注重价值的意见。人工智能工具还可以改进通知和评论流程的其他方面,例如,通过帮助监管机构检测并筛选出自动化、错误归因或其他虚假评论(尽管如上所述,检测人工智能生成的内容仍然存在重大挑战)。此外,尽管美国的评论家们大多主要关注人工智能在监管过程中的应用,但其他国家的国家立法机构也在尝试使用人工智能来收集和组织公民意见。

生成式人工智能还可以促进公民在通知和评论过程中与政府官员的互动。一些分析家认为,人工智能可以用来提醒潜在评论者关注的话题,帮助他们审查规则文本,总结技术文献,甚至撰写评论。这些工具还可以帮助那些没有时间或信心参与公众意见征集过程的公众。然而,与生成人工智能产生的信息的准确性、偏差和质量相关的问题也必须得到解决。

尽管有潜在的好处,但使用更复杂的机器学习和语言处理人工智能工具——即使是那些不由生成式人工智能驱动的工具——也会带来巨大的风险。人工智能系统需要充分的测试、训练数据质量的审查以及人工监督,以确保它们向公众提供准确、可访问且有益的信息。偏见是一个主要问题。例如,地方政府使用的人工智能机器人可能会根据选民居住的社区,为他们提供有关城市服务的不同答案。或者人工智能对话代理在处理口音或方言时可能会遇到困难——这些情况可能会对贫困社区、有色人种社区和非英语社区造成不同程度的影响。

必须为人工智能在这些方面的应用制定相应的规范。使用人工智能来审查、总结和筛选公众意见,与在其他情况下使用人工智能一样,会带来准确性和偏见方面的问题。人们有理由对人工智能取代人类在政府决策中的审议工作感到不安。人们担心的一个问题“机构中没有人会真正阅读这些意见,并理解他们的论点”。人工智能工具不仅可以用来审查和总结意见,还可以用来生成回复,为机构预先确定的方法提供依据。需要可执行的标准,以确保人工智能工具准确、无偏见地审查和总结意见,并使人类决策者积极参与思考,对这些意见做出回应,并在必要时将其纳入最终的政策决定。

政策解决方案 

实施准确、有效的系统来验证人类活动,特别注意可访问性和数据隐私

管理机构应实施相关政策,防止恶意使用机器人发表大量由人工智能生成的评论,以扭曲官员对公众情绪的看法。验证人类活动的系统可以在一定程度上实现这一目标,但它们也会增加用户的摩擦,造成数据隐私问题,并减少美国残疾人的访问。大多数联邦机构通过 Regulations.gov 网站邀请公众对规则制定发表意见,该网站采用 reCAPTCHA 人工验证系统来增强意见提交过程的完整性。(CAPTCHA 是“区分计算机和人类的完全自动化公共图灵测试”的缩写)。虽然 reCAPTCHA 并非万无一失,但它有助于区分人类和机器人活动。Regulations.gov 使用新一代 reCAPTCHA,与前几代相比提高了可访问性,为用户提供一个简单的“你是机器人吗?” 复选框作为一阶挑战,同时分析用户行为以识别机器人活动的迹象。然而,至少一项研究发现,这个版本的“验证码”仍然给视力障碍人士带来了障碍;它还收集一些用户数据来确定用户是否是人类。

政府实体——包括国会、州政府机构和执行公开记录法的部门——应将人工验证系统纳入其邀请公众意见和接收文件申请的流程中。随着系统功能的发展,官员应不断评估验证码和其他验证方法,选择那些能最大限度提高安全性和可访问性的方法。官员们应密切关注生成式人工智能的发展,以战胜现有的验证码系统,并关注是否需要新的系统来取代它们。法律和法规应规定最低限度的、任务必需的数据收集和保留,禁止各部门共享收集的数据,并强制定期删除保留的选民数据。还应要求政府部门和验证系统供应商披露有关数据收集和存储的详细信息(在不向潜在的欺诈者透露如何规避防御措施从而严重影响系统功效的情况下)。政府部门应为残障人士和无法使用技术或互联网的人提供其它提交和验证方法。

创造亲身参与以及和公众直接对话的机会 

随着机器人生成的欺骗性公众评论问题变得越来越具有破坏性,管理机构应该探索通过生成式人工智能相对不被扭曲的参与模式。亲自参与的机会可以包括公开听证会、市民大会和其他类似的论坛。公开听证会和市民大会的举办地点、区域和时间应允许广泛的公众参与。管理机构应采取最佳实践,以增加残疾人、有色人种和移民社区的参与机会。这些最佳做法应包括:在非英语主导社区占选民人数一定比例的情况下,由熟悉相关政策术语的口译员提供同声传译;提供美国手语翻译和其他适当的公共便利;并尽可能确保听证会可以通过公共交通到达。

由于市民大会和公开听证会通常缺乏代表性且范围有限,因此各机构和管理机构还应持续始采用各种工具,如针对已知选民(例如,使用过政府服务或申请公共福利的选民)进行调查,以获取公众的见解、情绪和反馈。此类调查将为计划实施和服务提供宝贵的反馈意见。官员们在开展调查推广工作是,既要加强信息收集过程的完整性和包容性,又不能给受访者造成过重的负担。为了降低因使用欺骗性人工智能造成信息失真的风险,在线调查应采用有效、可访问且保护隐私的人工验证系统,并且可以在统一的跨机构平台上进行。

授权政府机构无视通过欺诈性使用机器人或自动化系统提交的政策法规相关意见建议 

联邦行政程序法、州行政法和公开记录法要求管理机构在规定的时间内考虑公众就拟议法规提交的意见,并及时回复文件请求,但有某些例外情况。但目前,使用人工智能工具提交的旨在扭曲政策制定或转移资源的意见和请求也不例外。当有证据有力地表明,对拟议法规或记录请求的意见是通过机器人或自动化系统以欺诈方式传送的,联邦和州法律应允许各机构拒绝考虑这些意见和请求。

关于人工智能欺诈性使用的法规和政策应涵盖使用机器人或其他自动化系统模仿或复制人类活动,从而严重歪曲其产出背后的人类参与规模。例如,这种标准不应涵盖个人或组织使用生成式人工智能来协助起草意见或在组织使用生成式人工智能来协助起草意见或使用经人认可的格式信件——这一基准可能会对弱势社区产生负面影响。相反,它应该是指使用由生成人工智能或其他方式驱动的机器人或自动化系统来传输大量政策意见书,目的是歪曲官方对参与提交此类内容的人数的看法,或传达来自不存在的人的公开记录请求。对于任何此类决定,应给予充分的通知和上诉机会。鉴于目前生成式人工智能内容检测能力的局限性,以及检测工具对非英语母语者的内容进行错误分类的历史记录,除非检测工具符合严格的标准,否则不应部署它们。

为政府使用人工智能分析公众意见或协助起草文件或公共政策设立警戒线 

虽然人工智能为提高政策制定者对选民的响应能力提供了机会,但它也可能带来偏见、不准确和不可靠的风险,在投入使用此类系统之前必须解决这些风险。国会、州立法机构以及联邦和州机构应为政府人工智能的使用实施保障措施,以降低这些风险,包括适用于政府使用人工智能来分析公众意见、与选民互动以及为起草法规、法律和政策提供实质性帮助的可执行要求。对于联邦使用人工智能的使用,国会应指示管理和预算组织(OMB)颁布法规,规定训练数据质量和人工智能系统准确性的最低门槛,包括解决人类反馈强化学习产生的偏差的标准, 禁止法规所定义的算法歧视,并要求在人工智能的实质性辅助下,人类参与和监督政府决策和公共沟通的基准水平。立法者还应限制人工智能系统在评估公众意见时可审查的信息类型,这些意见是《行政程序法》所管辖的规则制定工作的一部分(例如,限制使用实际或预测的种族来试图将情绪与种族联系起来)。

国会还应该:

  • 在分析公众意见和起草公共政策时,促进测试方法的发展,以根据上述人工智能的具体使用的要求来评估人工智能系统;
  • 强制要求政府机构和人工智能系统供应商记录遵守这些要求的情况;
  • 责令政府机构在必要时采取缓解措施,当人工智能系统(包括生成式人工智能系统)未能满足既定要求且无法合理缓解其缺陷时,禁止部署人工智能系统用于分析公众意见或起草公共政策;
  • 强制政府机构在人工智能系统经过测试和实施后持续监控其使用情况;
  • 为人工智能的使用制定透明度要求,以便为联邦政府的决策和流程提供实质性帮助;
  • 要求政府机构披露其人工智能系统的使用情况、使用目的、分类信息或进行预测的主要系统参数、用于训练它们的数据源,以及人工智能辅助决策和公共沟通的人工参与和审查程度。

根据拜登总统最近关于人工智能的行政命令,OMB 和人事管理办公室应将类似的指令纳入联邦机构指南。各州立法机构应该对州政府使用人工智能系统提出类似要求。

寻求更好地了解选民如何使用生成式人工智能对规则制定和其他政策提交的评论意见 

各机构应不断与民间组织合作,以确定来自不同社区的利益相关者如何使用人工智能与政府互动,并找出公众教育和意识方面的差距。民间组织应向希望使用生成式人工智能来协助撰写对拟议法规和其他政策提交意见的选民提供指导。他们应该就以下方面提供建议:提示的必要性;在提交之前审查评论的必要性;确保评论者准确反映评论者的偏好;人工智能工具产生的事实核查信息的谨慎性;某些人工智能系统固有的文化偏见;以及人工智能工具可能会产生虚假或误导的内容或无法反映选民真实观点的内容的可能性。

 

【原文来源:https://www.brennancenter.org/our-work/research-reports/artificial-intelligence-participatory-democracy-and-responsive-government】