作者:唐鹏 数旗智酷创始人
本文不涉及有关“国运”、“遥遥领先”等泛政治化讨论,仅探讨DeepSeek在数字政府领域的应用价值与影响。
ChatGPT席卷全球,看似与我们有关,但其实已经被限制在了一个只可以谈论但无法拥有的位置。日本、新加坡、印度、阿联酋及美国相关城市等在政府管理及服务过程中的应用,目前并未掀起太大浪花,主要原因可能在于对于安全性、数据隐私等方面的考量,此外则可能是存在用户需求量的限制。
DeepSeek的出现,以及被多地政务系统的接入应用,可以视为数字政府领域的标志性事件,那就是:移动政务已经告一段落,AI政务正式崛起。如果移动政务是以政务App和API(政务小程序)为标志,那么AI政务则有望是基于DeepSeek的“政务AGI”的出现为标志。只有这样,所谓的“数字孪生”、“元宇宙”、“区块链”、“数据要素”等对政务系统可能才有意义——也就是语言智能与空间智能的深度融合,从线上办事到城市治理,从身份和需求识别到城市事件内容的判断…..
从当前全国各地政府宣布“接入DeepSeek”的公开信息来看,其中主要应用场景包括公文写作、数据报表制作、12345热线工单派发、政务问答咨询、政策解读、决策支撑等,此外也有地方提到在城市治理、民生服务领域的应用,并呼吁社会参与场景共创,但并未涉及具体应用场景。由此可见,AI大模型与移动政务浪潮的不同之处在于,AI不是作为一个平台或项目被引入政务系统,而是作为一种开源工具和能力。
关于政务系统“接入DeepSeek”的几个认识与判断:
权力转移:第一阶段是“内容即权力”,PC时代的应用标志是门户、搜索和BBS/Blog,谁能呈现、找到和生产更多内容,由此带来PV增长,谁就能在竞争中获胜;第二阶段是“平台即权力”,移动时代的应用标志是社交、支付和电商,谁能制造多边生态、聚敛海量用户并将每一个用户激活为一个真人需求,谁就能在竞争中获胜;而第三阶段是AI时代的“基础设施即权力”,就如《Algorithmic Institutionalism》一书所言,一是掌握了算力硬软件资源的企业,他们在模型能力训练方面更有优势;二是处于弱势的创业公司都需要向大型资本与数字巨头靠拢,以获得它们的资本支持。
应用模式:数字政府模式正在由API迈向AGI,“应用上架、平台推广、政府运营”的政务API模式可能越来越无法适用AI时代的用户习惯,通过语音、会话的方式快速获取服务结果而非参与服务过程,这可能是政务AGI应用的重要特征。相较于政务应用入驻微信、支付宝等平台,接入DeepSeek做私有化本地部署,但接入和应用之间上存在巨大的鸿沟,更考验的是政府系统内部的推动力度、机制设计、应用支持等,DeepSeek的开源精神也可视为新时期数字政府创新的新动力。那么,是一个政府机构、一个部门还是一个行业打造一个政务智能体,这可能需要考虑多方面的因素、资源与能力储备。毕竟政府领域已经有过一个部门开N个微信公众号最后草草收场的过往历史。
服务逻辑:移动政务时代的“用户至上”、“体验为王”观念正在松动。从文心一言、腾讯元宝到Kimi、从ChatGPT到NotebookLM、从Midjourney到Suno、从秘塔AI到DeepSeek,我们可以看到技术创新和服务能力递进正在改变服务逻辑:供给驱动取代了用户驱动,与平台模式不同,用户只是结果,供给才是原因。
数据视角:一是数据价值被重新定义;政务行业的数据价值原来是以共享和开放为基础的,本质是拼图式的数据价值应用,围绕解决具体问题的终极目的,每一个数据都有固定的位置,围绕问题进行拼图式共享;未来是液态式,数据价值在于合成、渗透、演绎,模型与模型之间的竞争是“数据私有化”或“数据专有化”,谁能拥有高质量的标注数据让机器更好理解,谁的数据更有价值,谁的服务能力或治理能力则更胜一筹。此外,还一个重要原因是,相比以往,AI大模型的能力接入是创造需求、解决目前尚未发生的问题,而非解决一个看得见的“灰犀牛”问题,因为相比原来基于A/B测试的平台应用,AI可以让用户拥有更广阔的互动空间。
在“接入DeepSeek”的热潮下,政府机构需要注意哪些问题?
应用需求:如果只有公文写作少量用户使用,部署成本是否适合?
决策支撑:是否可以将DeepSeek应用于政务服务或城市治理决策辅助?是否应该相信“足够大的数据集就可以诞生高水平AI”或者产生消除幻觉的AI?我觉得这是不可随便相信或尝试的观念。DeepSeek在涉及法律文件方面的“幻觉”问题已有爆出,在与一位公共治理研究专家的讨论过程中,他提出,AI幻觉的本质是一种“算力过剩、数据不足”的运行状态。而我更倾向于认为,如果“网络极化”是大规模网络连接下的技术性结果,AI幻觉则是Transformer架构下推理网络造就的“本性”。AI幻觉就是大模型的特点与个性,而非bug。这种幻觉本身就是人类应用与其协作必须克服以及凸显人类价值的地方。在一个从不说谎也无须人类干预的AI面前,我们自己是不是显得有些多余?而当采用AI大模型对涉及结构性社会问题或社会意识形态或制度结构造成问题进行决策干预的时候,如应用于福利政策、行政执法、交通违章甚至重点人群管理等场景,无法预知的风险就可能产生。比如,我们是否可以训练机器去识别中年人婚变与开车报复社会?是否可以将拆迁信访与群体事件直接关联?如果一旦将问题简单化,AI大模型可能不是用来解决问题,而是加剧社会分裂。
正如《Filterworld》一书所言,算法是精确的、高效的、一以贯之的,而现实决策不断摩擦的、不确定的、随时调整的。算法最大的问题是过于精确,导致一个螺丝被越拧越紧的令人窒息的世界。无论对于政府、企业还是个人,好的预测并不是好的决策。决策受时间、空间及即时性的影响至关重要。而AI大模型的智能能力高低也并不等于预测未来的准确程度。这可能是大模型辅助决策的最大问题。
服务风险:有地方城市提到DeepSeek用于“政策解读”。与传统的“智能问答”场景中所谓的不回复、“答非所问”以及“胡言乱语”、“飙脏话”不一样,AIGC大模型提供的是一种“言之凿凿、貌似有理有据的胡说八道”,在这种被算法建构过的内容、语气与逻辑面前,即使是专业人士都需要仔细研读和查询来判断其真实性,对于一般用户就更难分辨。所以,不要轻信所谓的“思考过程”。如果你对一件事情不了解,那么也需对AIGC的可追溯性与可解释性刨根问底。
场景饥渴:大模型已然具备了文、图、音、影等方面的能力,但从政务系统跃跃欲试的应用来看,说明目前还未真正突破场景应用瓶颈——真正属于AI大模型应该去解决的场景问题,解决是看似刚需但其实只是维持官僚系统秩序的必要之累,比如报表。而在数字政府持续高速发展多年的当下,真正可以去推动创新的场景是什么?比如“一件事”,以往的“人工串联”或“硬性捆绑”就是正确的、流畅的服务么?“一件事”的首尾之间没有裂缝么?如何利用大模型去检验和修正“一件事”的堵点与难点?比如“最多跑一次”或“一次办成”,办事的过多前置条件让“一次”变成“N次“后的“一次“,办理之前有大量资料和流程需要准备,这部分工作能否让政务AGI提供给用户一个完整的准备清单和导引,并在每个阶段进行定时干预或提醒?比如政策解读,“数字人”面无表情、双目无神呆板地将文字读出来,这并不是公众对AI的需求,能否根据不同用户的身份、工作相关性进行定向解读?政务AGI只解读你关注的内容。此外,政策解读与政策实践之间的差距能否被弥补?模糊化、具有灵活应对空间的政策如何被精确地解读?
数据要素:在一次与公共数据开放研究专家的讨论过程中,他指出大模型可能会对未来的信息管理模式发生改变,只要数据存在,大模型即可调用,那么,频道、栏目、条目式的政府信息资源模式在未来是否必要?由此让我想到,政务服务应用已经从过程逻辑切换到结果逻辑。那么前些年热热闹闹的“政务数据资源梳理”的价值在哪?未来比拼的是对数据的提取和提炼能力——数据标注大于数据梳理。而政务行业的数据标注本身就是一种政治,谁来定义?谁来标注?谁来审核?这些都显示一个政府机构的价值取向。如果政务行业的数据标注内容依靠大量第三方采购,那么势必将公司化商业化价值观隐性植入。如果政务数据标注依然是像平台时代的建设和运营一样靠层层外包进行,可想而知我们未来会处在怎样的一个世界。
因此,我认为要构建高质量数据集的来源,未来基层社区工作者的主要工作应不再是采集和填报,而是对一手数据进行标注,且只有他们才有资格、能力和判断对一手数据进行符合实际的准确标注,政务服务管理者与技术服务机构人员联合对数据标注规范性进行审核,再有政务AI伦理专家集体进行审核。未加审核随便对一项政务相关数据进行标注或随便采用第三方的标注,如果我们想一下过去这些年那些AI公司在什么地方采集数据以及利用谁在做标注,我们或许就知道未来可能要面对的是什么。
在《AI Snake Oil》这本书中,作者批判性地指出,我们不能相信那些以营销与宣传目的包装过的关于“AI无所不能AI”的言论,我们必须承认AI不能做什么,比如它不可能“预测”,比如它对社会文化背景、当时当地的情绪失去感知能力。这或许都不是数据标注可以解决的问题。比如一位母亲在夜晚给AI上传了它幼小儿子的生殖器照片,因为她想咨询红肿是何种病毒需要怎样治疗。但照片上传到google相册,她被怀疑有虐待倾向,她的账号被迅速封禁。比如东非某国的数据标注员在面对一张画有井盖的照片时熟视无睹,原因是他从来没见过井盖。比如上海城市治理系统中的AI应该将秋天“落叶不扫”街道的树叶标注为“垃圾”还是值得一逛的“风景”?比如AI在春节前夕应该将小女孩看见一个男人时的哭泣标注为与父亲重逢的“幸福”还是害怕被带走的“恐惧”?如此种种,都是我们需要与AI协作的未来图景。
最后,需要说明的是,DeepSeek在舆论场的走红正在逐渐远离其技术特性与应用特质的本来面目,其价值与影响也在走向高度失真,此外,DeepSeek正在重复ChatGPT曾经带来的“AI尽头就是卖课”的知识焦虑蔓延过程,这主要表现在以启蒙、普及和割韭菜为核心的“知识付费”卖课成为我们应对本领恐慌的最佳方式。这不仅表现在普通公众的接受过程,同时也表现在各级政府的知识传导过程,比如某城市领导层邀请某高校专家讲授“AIGC与DeepSeek”,作为一个过去几年从没错过用堆砌PPT来蹭任何一个数字化热点的研究团队,一个用104页PPT注水也没有讲清楚DeepSeek的团队,可想而知,除了传递已经知道的常识和尚未感觉到的焦虑,他们还会给城市政府传递关于AI未来的什么信号。