访谈嘉宾:谢新水 首都师范大学管理学院院长、教授

访谈人:唐 鹏 数旗智酷创始人、首席研究员

(本文内容根据访谈录音整理)

Q:过去三十年,互联网对政府运作形态的影响主要在于“透明政府”、“整体政府”、“服务型政府”的建设,您认为大模型(是否)将进一步对数字政府的未来发展产生哪些根本性的变化?

A:我认为,政府的形成以及运作形态的变化,与技术发展有关,但并非技术所能最终决定的。现在看来,无论是数字技术还是其他技术,并不会造就或改变所谓的政府的本质,技术所能改变的是政府的运作模式。回溯历史,我们可以看到,无论是我国古代的四大发明,还是工业革命诞生的技术,对政府本身的发展其实影响都很少,或者说,所产生的影响都不是根本性的。之所以我们会形成类似“数字技术改变政府形态”这样的观念认知,是由于现代政府建设与数字技术发展在某一个节点或场景上形成了互相影响的交点。无论是“透明政府”、“整体政府”以及十八大之后提出的“建设人民满意的服务型政府”,其根本动力在于创新性地处理人民和政府的关系,或者说,在于人民和政府本身。人民对政府发展的期待与政府建设的参与程度,政府自身的改革动力和创新动力决定了是否会形成新的服务、治理以及决策机制。在这个过程中,技术只是一个刺激要素。所以,无论是大模型还是其他未来可能出现的更为炫目的智能技术,都只是帮助政府提升治理和服务的手段,提供新的服务工具,提升政府的治理效能,很难改变政府的本质。

其次,我们可能需要对“数字政府是一种新的政府运作形态”的观念有一种祛魅。因为数字政府与科层制政府这二者之间并不是一个替代与被替代的关系,而是一个并行、叠加、渗透、融合的关系。所谓“数字化是一把手工程”则正说明了数字政府建设是需要获得科层制行政系统的批准和允许才可以实施的。数字化背后所强调的“去中心化”“自组织”等特征与科层制政府的“权力金字塔”“问责制”等恰恰是有冲突的,两者很难在短时间内融合。即使融合,也不会因为技术存在就可以从根不上改变政府的性质。因此,要真正提升政务服务效率与体验,关键在于人民和政府认为行政改革创新成为必要。进一步而言,无论是大模型还是其他数字技术,它们可以说是加速数字政府改革到来的催化剂,或突出了这种改革的优先级与紧迫度,但它并不能替代政府自身改革的决心、信心和行动。

再次,政府、国家本身都是为人而设立的,而作为社会性动物,人是喜欢和人打交道的。政务大模型的应用目前主要还是在数字空间中,需要通过网络以及各种智能设备作为中介。虽然目前的数智化技术可以在某些政务场景中提升服务体验与效率,但还不会对政府造成根本性的改变。如果要说“根本性的改变”,当未来大模型与人型机器人进行了完美结合,我认为那将可能产生一些根本性的改变,实质上是将“无形的数字政府”变成了“有形的数字政府”,这将有可能对人与政府的关系进行一次根本性的突破。如果那一天真正到来,我想我们需要研究和思考的可能不只是如何定义“政府”的问题,而是如何定义“人”的问题。

Q:目前很多政务服务平台都将智能咨询、智能搜索、智能问答机器人等作为标配进行建设,大模型与之相比最根本的区别与优势是什么?

A:从个人观察与体验来看,目前各级政府网站的智能搜索、智能问答、智能咨询等技术的应用效果还是很有限的。大模型相较起来,主要是在数据、算力和算法等方面的优势,再加上自主学习、语言组织等能力,它们对用户互动场景的适配程度与体验都会更胜一筹。

但是,作为政务服务应用而言,我们首先要考虑到的是,这些变化是否给公众带来价值以及带来什么价值?我觉得这是存疑的。因此政府与人民之间的互动关系基本都是围绕公共利益展开的。政府本身是一个行动主体,人们找政府的时候,目的并不是咨询问题而是为了解决问题。因此,只有当政府作为行动主体,体现出对具体问题的行动有所作为的时候,才能提升老百姓的满意度与获得感。而将大模型应用于咨询、搜索和问答等场景,只是政务服务的浅层次需求,是一种体验层面的增量,但还不算一种刚性需求。

此外,我们应该注意到,将大模型应用到政务搜索、咨询、问答等领域,大模型的价值并不能提供一个解决方案,它能做的是提供一个“解释”。大模型提供的是一种“可能性”而非一种“承诺”。这里就会存在一个问题,公众寻求政府给出回复的预期是获得一种“权威性回复”或一种“服务承诺”,但这些都是大模型无法满足的。因此,表面上看来,大模型与之前的智能问答、智能咨询、智能问答机器人等相比,看起来要“先进”不少,但是这种所谓技术视角下的“先进”性,并不能替代行政人员的权威性与准确性,更不能替代行动性。

当我们在惊异于 ChatGPT 的“滔滔不绝”与“无所不能”的时候,我们有没有觉得它跟一些看似上知天文下知地理但缺乏行动力的空谈者很像?在专业人士看来,他们所输出的内容真的能算作“决策建议”吗?它们所说的观点都肯定是合法的吗?它们所提出的建议是有行动依据的吗?这些都需要认真对待。

Q:从“搜索即服务”到“对话即服务”,大模型对未来的政务公开、政务服务的模式与体验将产生怎样的影响?

A:我在做博士后研究的时候就做过“公共对话”的课题,后来出版了《从公共对话到合作治理:基于对话思想遗产的研究》。今天,我们来看“搜索即服务”也好,“对话即服务”也罢,其核心还是口号大于实际。其实对于政府而言,“对话”就是服务的组成部分。

如果要从具体影响来看,大模型利用交互式的聊天对话模式,对政务公开显然具有一定的促进作用,比如,对信息查找不熟练、自我需求不明确的用户而言,这种持续递进式的对话模式,可以帮助他们获取目标信息。但是,需要关注的是,作为政务公开而言,众多事项都是有明确的定义和法律法规规范的;依法行政、政务诚信是政务服务的根本。这一些根本原则,不会因为大模型的技术特征而产生变化。

问题在于:政府机构到底应该选择哪个大模型最为合适?毕竟,对话机器人的发展历史已经比较长了,但最后都因为在聊天对话过程中因为道德风险或政治风险而遭遇发展瓶颈,甚至于死亡了。所以,在政府将大模型应用到政务公开、政务服务过程中时,首先要考虑选择用谁的大模型,其次要考虑自主学习与数据训练过程中是否会给政府带来声誉、国家安全等方面的风险。

当然,政府可以把公开的政策数据灌入大模型进行训练,对一些统计年报数据、历史年份中公开的数据、权威部门审核过的数据等进行封闭的训练。但是,政府应用大模型与企业应用最大的不同在于,企业大模型如果出现用户互动异常,我们只是看成一次普通的公关事件。如果政府大模型在与公众互动过程中如果出现异常,则将造成公众对政府的不信任,政府不会因为看重技术的便利性而影响其权威性。这是政府采用新技术之所以保守的地方。

Q:政府拥有大量的数据资源,哪些类型的数据更适合大模型,公文类应用大模型是否合理?

A:政府有一项很关键的任务就是起草政策、调研报告、请示等公文,所以将大模型应用于公文写作领域是有其独特优势的。

公文起草本身就是行政行为关键的环节,以前都是依靠政策研究室、秘书班子、办公厅等单位与专职人员去研究和起草,公文起草的质量最后依靠的是个人对相应政策的熟稔程度及其文字能力。在政府公文写作层面,大模型是可以去应用和进行价值挖掘的。

大模型可以成为公文写作人员的辅助工具。比如,使用大模型可以快速地进行数据获取,了解既往政策,并让大模型提出一些有价值的想法等。这样一来,就可以大大提升公文写作过程中在查找资料、分析数据、新旧政策对比等方面工作的效率,最终可以达到提升公共政策制定的延续性、科学性与全面性的目的。

但是,我们还应该看到将大模型应用到公文写作中的难点与隐患。公文起草本身也是社会治理的一个环节。从技术角度而言,大模型的服务提供商只是了解算法,但并不了解真实的社会治理,而算法设计则不一定会契合公文写作的需求,它不会懂得每一个数据的引用或每一个用词的背后含义以及可能涉及的公共利益。

人工智能无法对社会事实做出准确的符合特定文化、群体和场景的价值判断。特别是在公共政策领域,政策的制定并非根据某一个或几个事实来做出判断,事实本身只是一个要素,它需要关照到时间、空间、关联利益主体、市场反应以及可能的社会影响等方方面面。因此,作为一种高度复杂的社会治理领域,大模型在涉入公文写作也好、政策制定也好,只能是辅助决策的工具,而决策的责任还在政府部门,最关键还是人的智慧。

Q:在哪些政务领域和场景应用大模型,可以被率先突破?有哪些通用筛选原则?

A:对于政务大模型的应用场景而言,我认为首先要把握需求原则。也就是说,在政务服务需求集中、人工服务效率与效益比不上机器,以及需按标准化流程重复操作的领域,大模型肯定能带来更好的体验。其次,我认为对政务服务最为有利的技术解决场景应该属于“静态领域”,也就是人们的价值与利益差异、冲突,在这种场景中的作用与影响体现得很小的领域。比如在交通领域,交通线路的设计主要跟地形地貌、居住人数、单位集聚性质等相关。此外,在环保领域、天气预报、城市规划等可以基于事实的判断来做出决策的领域,政务大模型的应用将为政府决策提供高效支持。也就是说,当这些领域的问题与个人的价值选择和利益取向并不是特别密切相关时,大模型可以基于城市发展需求来开展客观的、数据化的判断。

但是,在目前高度不确定性、高度复杂性的风险社会之中,社会问题、舆情问题涌现得越来越多,爆发得越来越频繁,而且这些问题背后都有很多复杂的因素,比如,在线教育的问题、诚信问题、社会救助问题、国际政治问题以及宗教文化问题等,这些问题不仅很难简单地用大模型去判断,一旦大模型介入这些领域还可能引发新的问题。

Q:此前,纽约发布了自动化决策应用指南、波士顿发布了生成式AI的临时指南,您认为我国政务领域在出台大模型发展指引或顶层设计方面应注重哪些方面,可以借鉴哪些内容?

A:从波士顿发布的城市应用生成式 AI 临时指南的内容来看,它有一个很重要的点就是杜绝泄密。大模型是一种互动性很强的应用,是先有输入后有输出,并且会将你的输入内容作为学习数据进行滚动式训练的一种工具。政府在利用大模型支撑自身工作的时候,对一些数据和信息的应用是需要设置明确的界限的。比如,当政府城建部门在咨询城市规划等相关问题时,就涉及到尚未制定或尚未公开的思路和想法,比如开发区域、特殊政策等,一旦数据和信息泄露就可能对社会产生重要影响,甚至带来社会冲击。

还有一个问题是,政府应用大模型的数据应该被谁掌握,以及如何设置安全监管机制?比如,市场监管部门利用大模型来探测和识别违规企业,并对锁定目标企业进行处罚,如果提供服务的机构或企业获取了这些数据,是否可能去进行一些所谓的“增值服务”?因此,无论是自动化决策还是生成式 AI 应用,在公共治理与服务领域的应用,必须有明确的界限。这与之前的“通信行程卡”类似,它们诞生于突发的疫情防控需求场景中,当疫情结束的时候,就应该销毁数据或者至少要它们下线。

Q:大模型将对政务服务、政府决策将产生哪些挑战?如何打破数据歧视、“AI 幻觉”以及对偏见的固化等?

A:政府决策是基于事实和数据,是基于社会发展和需求来做判断的。决策过程中,数据的来源是不是完全符合事实?事实的描述是不是准确的?数据和事实是不是被人为选择过?诸如此类的问题可能是对大模型辅助决策的最大挑战。西方国家的选举活动中有一个“游说机制”,但游说是需要公开透明备案的。那么,我们也可以认为,大模型的背后也存在一个“游说机制”,大模型从哪些机构、部门或个人所提供的数据和信息,可能最终会影响甚至决定我们所获得的政策的结果及其质量,采用政务大模型的部门或机构需要将这些信息对外公示与定期更新。

对于一项人造技术而言,所谓的数据歧视、“AI 幻觉”这些东西是很难被消除的,只是影响人类的方式会产生一些变化。如果政府需要避免被大模型控制,就有两点原则需要坚持。一是大模型只是具有工具和辅助价值;二是大模型的加入更加考验决策者的能力与公平性。这里可能存在一个悖论:大模型在提供决策辅助价值增量的同时,也存在潜在地削弱和挑战人类决策能力的风险。

为了最大程度消除大模型的消极影响,可以通过成立政府大模型算法评估委员会等类似组织,对其是否产生伦理道德问题、隐私问题、歧视问题等进行评估,并做出判断。或者说,很有必要将政府、企业、社会组织、公众等力量都纳入进来,利用第三方视角来审视大模型对社会治理的影响。我认为,在政府大模型发布之前,是必须要有的一道程序。这个工作目前大数据局可以做,也可以由政府决策部门、其他社会组织或专家组成更大范围的团队来做。只有将相关利益群体的声音和意见覆盖到要制定的政策中,才能更好地保持公共政策的透明度和公平性。无论如何,不能使新技术的应用成为一种隐秘的东西。

Q:生成式 AI 应用是否会成为主流的政务服务入口,对现有政务数字化供给(比如原有信息系统、政务云的建设)会产生哪些冲击?

A:从政府数字化转型的进程来看,不同阶段对平台有不同的侧重和选择,生成式 AI 应用成为未来主流的政务服务入口是有可能的,因为大模型相比门户网站、搜索引擎等的服务体验,有一些质的变化。在应用范围、服务能力方面,大模型都可能对以前的模式产生替代。由于政府具有一些原始的创新冲动,为了更好地推进社会管理,政务创新需求的增加也是促使生成式AI在政府领域发展的一个因素。

生成式 AI 在政务服务领域的应用,可以视为对数字鸿沟的再一次弥合。移动政务的普及与体验升级,让边远地区都可以更便捷高效地使用政务服务。生成式 AI 的对话聊天模式的服务体验,相比原来的模式会更有效率。比如,它可以让一个完全不了解政府的人,第一次办事就可以通过对话式交互达成自己的目标。当然,生成式AI不是要提供已经定式的、刻板的办事流程或指南,而是要根据用户需求进行人性化的内容组织,使之更符合普通用户的理解和习惯。这也是一个很高的要求。

此外,至于是否会对原有系统产生冲击或颠覆,我觉得这种可能性是不存在的。所谓“颠覆式创新”是诞生在企业经营管理领域,而政府的发展、变革与转型都是渐进式的、迭代式的过程。如果真的发生了所谓“冲击”或“颠覆”,那这种包含副作用的“反推力”也是很强大的。