前言:
此刻我们对“新一代信息技术大数据论文题目”可能比较重视,姐妹们都想要学习一些“新一代信息技术大数据论文题目”的相关知识。那么小编同时在网络上收集了一些有关“新一代信息技术大数据论文题目””的相关资讯,希望兄弟们能喜欢,朋友们一起来了解一下吧!注明“刊载于《电子政务》2023年第4期”。
引用参考文献格式:
何哲,曾润喜,郑磊,等. ChatGPT等新一代人工智能技术的社会影响及其治理[J]. 电子政务,2023(04): 2-24.
摘 要:横空出世的ChatGPT开启了通用人工智能时代,标志着人工智能具有广泛的学习能力并在大多数领域达到或超过普通人类的水平,其社会影响将巨大而深远。ChatGPT本质上是人工智能生成内容的最新应用成果,面对这一新传播范式,对其风险认知、治理策略研究刻不容缓。类ChatGPT应用嵌入公共治理领域将展现出巨大潜力,同样需要未雨绸缪,预判其可能带来的失灵、失信、失德、失向等风险,使其成为一个可用、可信、可靠和可亲的“推动者”。有乐观者认为,ChatGPT等人工智能内容生成技术的优势将为法治政府建设所用,带来人力所不及之利好;显见的是,作为“聊天机器人”出身,在代表政府与公众互动方面,类ChatGPT应用必将减少大量行政负担。欲知全豹必窥多“斑”,有人提出,可从认知、技术、数据和服务四个方面对ChatGPT等大语言模型嵌入政府治理进行研究探讨;也有从“工具、语伴、智慧体”抽象隐喻视角辨析围绕ChatGPT类智能应用的治理;更有对后ChatGPT时代政策智能发展前景的展望。
关键词:ChatGPT;智能社会;智能治理;人工智能;通用人工智能;AIGC;大语言模型;政府治理
DOI:10.16582/j.cnki.dzzw.2023.04.001
这是一组青年学者笔谈,共8篇,依次为:
● ChatGPT:开启通用人工智能时代及其社会影响
何哲
● 人工智能生产内容(AIGC)传播的变迁、风险与善治
曾润喜 秦维
● 从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略
郑磊 张宏
● ChatGPT等人工智能内容生成技术对法治政府建设的影响及应对
张效羽
● 人工智能、人机交互与行政负担
马亮
● ChatGPT等大语言模型嵌入政府治理的四个小切口
翟云 潘云龙
● “工具”“语伴”还是“智慧体”?面向不同隐喻的ChatGPT治理
李晓方 彭云
● 后ChatGPT时代的政策智能前景展望
张楠
ChatGPT:开启通用人工智能时代及其社会影响
何哲 中央党校(国家行政学院)公共管理教研部
一、ChatGPT的历史意义
人工智能的发展历史虽然很长,但其真正突破是在2010年后,伴随着网络和大数据技术的进一步普及应用,通过对海量数据的挖掘,结合深度神经网络技术形成了飞跃。在人工智能发展的历史上,迄今为止,真正具有划时代意义的产品,一是谷歌的AlphaGo围棋程序,二是近来横空出世的ChatGPT。如果说AlphaGo标志着狭义人工智能达到和超越了人类在专业领域的能力,那么,ChatGPT则开启了通用人工智能时代——也就是人工智能具有广泛的学习能力并在大多数领域达到或超过普通人类的能力。
人工智能的技术发展历程总体上呈现出从简单线性到复杂系统的特征。在人工智能的早期,其基本思路就是简单的命令式编程,然而,人们很快发现其不能完成复杂的思维工作,只能用于数据处理、电子游戏、工业自动控制等简单场景。20世纪80年代后期,仿照人类大脑的生物学神经网络模型开始出现,但由于其模型设定简单、计算机算力不够,以及缺乏足够的数据素材支撑,其发展也比较缓慢。进入21世纪后,伴随着高性能计算机、网络计算以及数字化技术的普及,一方面使得大规模神经网络模型得以实现,另一方面,则有海量的数据素材为人工智能的训练提供支撑。加之深度学习技术不断进行着算法改进,如AlphaGo引入的局势分析,大大缩减了整体策略树的规模,其根源在于仿效人类思维方法。而ChatGPT则一方面采用大参数神经网络,如GPT3的参数规模是1750亿,已经高于人类脑神经细胞的总数,另一方面,则是引入了基于注意力的模型,从而使得语义的分析和输出仿效人类的联想和关注机制。因此,ChatGPT在自然语言上的总体表现,令人非常惊艳,其对人类观念的震撼性冲击,也完全不亚于2016年AlphaGo的出现。如果以图灵测试作为最低标准,那么ChatGPT基本已经通过了图灵测试。因此可以说,其开启了人工智能发展的又一高峰。
近年来,人类科学家对于人工智能发展的进程有一个大概的共识,即从必须经过长期专业训练的狭义人工智能(ANI),过渡到具有强大自我学习能力和跨领域能力的通用人工智能(AGI),进而到远远超越人类智能的超人工智能(ASI)。然而,在对其实现进程的估计上却远远落后于实际,即绝大多数的人类科学家和思想家都认为从狭义人工智能到通用人工智能的道路是非常漫长的,最为乐观的思想者也认为其实现至少要到2040年前后,甚至迄今依然还有很多思想者认为人工智能根本不可能达到普遍的人类智力水平。而只有极少数的思想者如霍金和马斯克认为强人工智能的实现已经是近在咫尺。ChatGPT的出现和其目前展现的强大多任务适应能力,无疑宣告了强人工智能技术时代已经到来。
从ChatGPT的技术路线来看,毫无疑问地向人类证明了一个事实,即人类通过不断地堆叠人工智能神经网络的参数规模和通过不断模拟人类思维模式调整,是可以形成高性能智力表现的。以目前ChatGPT的成本和构件来看,再增加十倍的参数即达到万亿级参数的AI也是可以承受的。从目前的信息来看,许多科技巨头如META、微软以及OpenAI的下一代产品GPT-4都要达到万亿参数级别,因此,可以肯定的是,ChatGPT只是一个技术先驱,在未来的几年内,类似的AI产品会陆续出现,通用人工智能很快将迎来百花齐放的格局。
二、ChatGPT的社会影响
ChatGPT由于实现了三个以前的人工智能无法完成的基本功能,因而其对社会的影响将是巨大和深远的。
第一,完成了对人类知识的整合。从目前的信息来看,ChatGPT自称用了人类互联网三分之二的数据进行训练,并且还在持续增长。因此,ChatGPT是远优于以前所有搜索引擎的智慧知识引擎,以往的人类知识引擎最多只能根据页面引用数或者内容相关度推荐页面,但是ChatGPT能够根据其所继承的海量知识进行精简高效地归纳输出,这极大提高了人类获取信息的能力。
第二,完成了高质量的自然语言接口。语言是人类思维中最复杂的活动过程,完成语言要具有复杂的编码能力和抽象理解能力。通过语言,人类也形成了个体之间的社会网络交织从而形成了社会结构,走上文明进化之路。因此,语言也是人类与其他生物的根本性区别特征。以往所有的人工智能基本无法理解复杂的人类语言,即便是近年来高效的人机翻译也更多是借助了人类词频分布实现文本的互应,而不能说是“理解”了人类语言。然而,ChatGPT目前表现出的不只是对人类语言的仿真输出,而是对人类复杂语言的理解能力,其能够在庞杂的人类语言中把握关键意思和逻辑,并执行各种命令和反馈。这就远超过以往的人工智能,形成了人与机器的良好友善接口。这不仅对于机器辅助人类工作有积极意义,对于机器本身的进一步进化也有重大价值。须知人类在幼年阶段正是在与他人的语言交互中,通过对他者的识别而进行知识学习和逐渐形成自我意识。从现有ChatGPT所展现的范例来看,其能够通过与使用者的对话而逐渐习得个性化色彩和进行情绪反应,以至于OpenAI公司不得不限制了对话的长度。
第三,具有了广泛的智力工作能力。ChatGPT不仅能够与人对话,还具有复杂智慧工作的能力,如编辑图表、图像识别、生成图片、分析数据、撰写论文或小说,甚至可以根据指令自动生成代码。这些都是传统上人类才能够具有的复杂工作能力。这意味着ChatGPT不仅能够作为一个聊天机器人,还是一个能够与人类无缝对接的强大的智力劳动工具。这就将产生强大的介入社会工作的影响和严重的工作替代问题。
因此,在可见的未来,ChatGPT等一系列类似的AI大面积地进入社会劳动领域是一种必然。首先,作为一种高效的知识归纳和信息搜集引擎,ChatGPT可以大幅度地提高桌面图文类工作的效率和替代相当的工作,简单文字表格处理工作的就业岗位需求会越来越少。其次,作为一种有效的人机交互接口,显然高效的呼叫/客户服务中心的前端工作可以被ChatGPT所替代。第三,在编码能力的支持下,相对简单的程序员工作以及程序测试员的工作也可以被ChatGPT所替代。
以上只是对简单劳动的就业替代,对于更复杂的脑力劳动,如教师工作、科研工作、文学艺术的创作工作,ChatGPT也展现了强大的潜力。例如ChatGPT能够很好地对已有的人类知识进行总结归纳,并有针对性地传递给学生和给予细心的解答,这在很大程度上能够辅助/替代教师的大部分知识传递和答疑解惑的劳动。在科研工作中,ChatGPT不但能够有效地对已有研究进行回顾整理,还可以自主提出新的科研计划,并辅助论文的写作。
当然,ChatGPT对社会的具体影响更为深远的还是在普遍的人类观念上。长期以来,人类中大部分普通个体对于高性能人工智能时代的到来认为还非常遥远和非常陌生,然而ChatGPT的实用化和普及,必然形成深刻的全社会的观念震动和改变,人类真正开始面临对新的智慧体的接纳。
三、ChatGPT对政府治理的影响
显然,以ChatGPT为代表的新一代通用人工智能技术会深刻地影响到政府治理。在大量的日常资料搜集、决策方案参考以及更好地处理公民服务诉求等方面能够提供积极的辅助。然而,凡是涉及到政府治理的问题,一切技术的应用都应该更加慎重,因为政府治理要涉及到宏观整体秩序保障以及微观个体权利保护的结合,要更加精准稳定且必须严格合乎法律。目前来看,ChatGPT还存在很多缺陷,使其应用在政府治理方面要异常慎重。
首先,ChatGPT具有非常强烈的实验性和不稳定性。人工智能的发展始终是在稳定性和复杂性之间的平衡,目前基于大参数神经网络体系构建的通用AI,显然已经超越了简单系统的刚性可靠性,而呈现出一种复杂系统的动态柔性和突变性。换句话说,在具有人类智慧的同时,AI也具有出错和人类情绪化的特征。这使得ChatGPT在用于非常严肃的公民交互和应答场合时,要高度慎重,因为其代表着政府公信。
其次,ChatGPT必须要解决好合法性的问题。同样由于ChatGPT的模糊性,使得ChatGPT很难用刚性约束对其应答进行合法性限制。一方面,基于全网数据训练的ChatGPT很容易突破一国的法律限制;另一方面,ChatGPT未必能够真正理解法律的权威性。一旦作为政府的官方代表进行对外交流,很容易出现严重的法律和政府信用问题。
最后,ChatGPT要解决好封闭性和安全性的问题。一旦政府系统采纳了ChatGPT类似的强人工智能模型,那么就意味着一个类人的智能体接管了政府的绝大部分信息和数据。这是非常具有风险性的。因此,要真正建立可靠的治理用ChatGPT,需要严格限定训练数据,严格限定对外接口,并且经过长期反复的训练和观察评估。目前来看,一切用于治理的人工智能模型都需要建立在人工严格审核的前提下,仅从事一点辅助性的知识提供工作。
四、结论
ChatGPT作为一种现象级的通用人工智能先导性产品,其示范意义大于应用意义,对人类最深刻的改变还在于对人工智能的观念上,在未来的几年中,类似技术大量出现和经过反复评测后,对于劳动替代和深远社会影响的效应才会慢慢显现,而对于治理的影响,则还需要更长时间的评估观察。
作者简介:何哲,中央党校(国家行政学院)公共管理教研部教授。
人工智能生产内容(AIGC)传播的变迁、风险与善治
曾润喜 秦维重庆大学新闻学院
人工智能生成内容(AI Generated Content,AIGC)尚未形成统一规范的定义,但产学研各界普遍认为AIGC是利用人工智能技术自动生成内容的新型生产方式,可以实现海量数据计算、持续内容创新、深度认知交互。2022年末,OpenAI发布“ChatGPT”引发全球关注,ChatGPT是生成文本和代码等内容的一款对话机器人模型,是AIGC的最新应用成果,标志着AIGC传播范式的正式到来。
一、内容生产模式的变迁:PGC-UGC-AIGC
互联网内容生产模式依次出现了专业生成内容(Professional Generated Content,PGC)、用户生成内容(User Generated Content,UGC)和人工智能生成内容等三种方式,分别代表从Web1.0到Web2.0再到Web3.0的进化。
一是内容生产主体和生产方式的演化。内容生产主体经历了从专业人士到互联网用户、再到人工智能的跃升,推动内容生产主体实现了从专业化到多元化再到智能化的转型发展,有效提高了内容自动化且智能化合成的效率。内容生产方式也随着内容生产主体变迁而变化,经历了从单一网络技术向交互技术、互联网及运算技术,再到计算机视觉技术、多模态技术、机器学习等人工智能技术的演进,逐步形成“机械反馈-智能识别-深度学习”的技术生产驱动逻辑,大幅提高了AIGC的生产力。
二是内容交互方式和分发方式的改进。人机交互实现了从被动式反馈向多维操控再到智能交互的变迁,其本质是以具身传播为特点,通过增强虚拟现实等技术,实现人机对话和人的全面延伸。内容分发方式经历了从被动式搜索到算法个性化推荐,再到智能化预判分发的跃升;分发场景则从PC端信息门户到社交媒体、平台媒体,再到游戏、元宇宙等,其内在逻辑是算法演进的高度智能化,实现内容分发“所见即所得”“所想即所得”“所愿即所得”。
三是内容生产质量和生成效果的提升。PGC、UGC和AIGC生产的内容形式均包括文本、代码、图像、语音、视频、3D等多维领域,但内容特征则从垂直化到多元化再转向去中心化,海量数据、数字孪生和虚拟现实成为AIGC的显著特征。内容生产效果从PGC的专业度高到UGC的丰富度高,再到AIGC的生产效率、专业度、丰富度均高,呈现出内容生产质量U形曲线上升、生产周期缩减、规模指数级增长等规律,充分体现了人工智能赋能内容生产的魅力。
需要注意的是,三种内容生产方式并非是线性演进的关系,也不是新阶段取代旧阶段。AIGC所基于的数据主要来源于PGC和UGC,需要将PGC和UGC的专业化内容和多元化内容作为数据学习和模型优化的重要来源,PGC和UGC是独立于AIGC的内容生成方式,三者之间是一种共存共生的关系。
二、AIGC传播可能面临的多重风险
(一)用户认知风险:算法加剧用户两极分化
数字鸿沟是长期存在但又难以消除的信息社会难题,最初主要是指接入沟,后来又增加了使用沟和知识沟,在算法时代还可能产生算法意识沟,意即用户是否意识到并且有意识地使用网络算法应用与设施。尽管AIGC被认为能够最大程度地弥合不同层级和不同地域之间用户在信息整合和使用方面的使用沟和知识沟,但对接入沟的消弭是有限的。更让人担忧的是,算法意识沟会随着AIGC以及其他机器学习算法等互联网新基础设施的发展而持续扩大。一方面,AIGC与用户深度交互生成海量信息,一些用户会通过AIGC为自己在信息搜寻、产品消费和公共生活参与等方面建立便利条件;另一方面,目前仅少数“早鸟”用户意识到AIGC的重要性并且使用AIGC,多数算法素养较低的用户即使有机会使用AIGC,也很难意识到AIGC是不断迭代更新的算法模型,要么对算法采取冷漠或抵抗的态度,要么对算法形成深度依赖和盲从,因而AIGC是否是一次纯粹正向的赋能依然存在迷思。
AIGC还可能操控和改变用户的认知,形成更大的群体极化风险。根据桑斯坦的观点,群体极化是指在互联网和群体的作用下,促使群体成员的观点或态度在固有倾向性的基础上转向极端化。在与用户深度交互和内容生成的过程中,AIGC通过算法修正实现模拟人的意识感知进而操控人的认知,存在群体极化的风险。国外多项基于政府官员的实证研究表明,官员们不会盲目信任算法给出的决策建议,但当AIGC生成的决策建议与其想法或刻板印象相符时,他们就会倾向于采纳该决策建议。以ChatGPT为例对上述过程进行模拟,用户输入提问内容并根据算法模型生成的内容反馈修改意见,实质是根据用户的信息需求来训练算法模型,直至ChatGPT通过海量数据计算输出符合个人需求的内容。在“输入-输出-训练-输出”的反复过程中,实际上起指导作用的是算法的“自动化偏见”和个体或群体的“选择性遵从”,进而强化个体或群体的观点,最终可能导致群体极化现象的加剧。
(二)内容风险弥散:信息茧房与算法监控
AIGC信息输出类似于一种漏斗模式,尽管其在计算过程中以维基百科、数据库、网页、社交媒体等提供的海量信息为数据源,但其为用户提供的最终信息却是在对海量信息筛选后给出的单一化且标准化的内容。虽然免除了用户在海量内容里面的搜索之苦,却也使得用户失去了与海量知识的连接。如果只接触AIGC为用户提供的标准化答案,不仅易导致知识的反多元化,还会丧失用户的自主求知探索欲,将不利于知识的多元化传播。同时,AIGC输出结果的质量与用户付费模式之间是一种倒金字塔结构,即用户付费越高,获取的信息越精准;但大多数群体依赖免费服务,处于倒金字塔的底层,所获得的信息有限,不利于底层用户拓展自身的知识,用户容易被笼罩在AIGC织造的信息茧房之中,造成认知困境。
此外,AIGC一旦被广泛应用并嵌入海量政府和用户数据,算法利维坦和全景敞视风险凸显,将加剧国家政治安全与个人信息安全的隐患。一方面,AIGC引入国家治理过程,可能存在算法意识形态越位、算法政治谣言泛滥、算法数据泄漏、真假信息共存等“算法利维坦”风险。另一方面,随着AIGC多元场景应用,用户不得不以隐私让渡获取使用权限,AIGC全方位嵌入公共领域和私人生活,实时跟踪并计算用户的数据及需求,类似杰里米·边沁(Jeremy Bentham)所提出的“全景监狱”,意即人工智能对政府和用户进行液态监视。因此,当算法、算力、数据成为国家治理和社会生活的底层架构,必须警惕底层崩塌的风险外溢。
(三)人机关系悖论:奇点临近人机关系风险
AIGC冲击人的自主性,容易导致人机互动驯化和异化。AIGC呈现去身体、去真实、去开放和去隐私的趋势,隐藏着算法对人的主体性更为彻底的剥夺风险,其实质是人机驯化的异化表现。换言之,人类创造了算法,但算法有可能反过来规训和重新格式化人类,潜移默化改变人的行为及价值观,进而侵蚀人的主体性。此外,人类一方面不断提升AIGC的创新力和生产率,另一方面又在引发公众沦为“幽灵工人”和无用阶层的恐慌或担忧。
三、实现“算法善治”:规避AIGC传播风险的路径
(一)用户层面:提升公众的算法素养
规避AIGC传播用户两极分化风险,有赖于用户算法素养的提升。一方面,根据公众对算法的感知和依赖程度,采取差异化的科普策略。对算法意识较弱的公众应加强算法知识与应用教育,促使其接触并使用AIGC,逐步缩小算法意识沟,促进信息公平。对算法强依赖型用户应加强数据干预、数据隐藏、数据阻断等算法抵抗战术教育。另一方面,用户需要提升自身对于算法环境和信息的批判意识,增强对真假信息的甄别力、对两极化信息的脱敏力、对偏好标签的洞察力、对认知操纵性信息的免疫力,不盲从AIGC生成的建议,努力避免算法信息茧房和群体极化现象的出现。
(二)数据层面:规范AIGC的数据使用
数据使用规范是规避信息茧房和算法操控风险的关键。首先,高质量数据对AIGC内容生成起到正向训练的作用,根据使用场景、安全级别、私密程度、敏感程度对PGC和UGC数据进行科学挖掘和评估,确保数据质量符合使用场景和用户的需求。其次,以亲治理和亲社会的原则采集与使用政府开放数据,重视政府开放数据的安全性,避免“算法利维坦”风险。再次,重视数据隐私,确保数据信息采集是建立在充分保障用户个人隐私的基础上,避免用户“无感伤害”。最后,合理赋予AIGC知识产权,根据机器人的差异,多层次、多维度、多级别地对其知识产权进行差异化的赋权与监督,避免人机关系恶化。
(三)技术层面:坚持技术向善原则
为规避人机关系风险和算法问题,各算法相关主体均应遵从“技术向善”的原则,加强算法责任综合治理,强化技术行为和使用规范。政府需要善用和善管AIGC算法,明确人工智能的法律定位及权利,平衡人机在劳动市场的分工与合作,预防算法对人的意识和认知的操控,让算法真正服务于民;加强对自主可控的AIGC的技术研发,尤其是具有原始创新的基础研究和集成创新的应用研究。资本应当兼顾经济与社会效益,降低算力成本,推广分布式服务,避免信息倒金字塔结构固化,促进信息自由流通。算法开发者需要注重技术理性和算法伦理,兼顾自主性和嵌入性的动态平衡,避免生成同质化内容,提升生成内容的多元性;在编码时需要警惕个人或社会偏见嵌入算法,及时调整误差并优化AIGC模型,以确保内容生产质量。
(四)应用层面:实现多元场景接入与适配
尽管AIGC囿于算法偏见、数字鸿沟、算法剥夺等问题,在传播过程中对用户、内容、人机关系造成潜在风险,但AIGC传播范式是不可逆的潮流,必须充分认识并做好全面数字化的准备。一方面,在新技术或新场景开发时要有预留AIGC应用接口的意识,优化AIGC的开放数据接口标准,同时鼓励共性技术平台和算力平台等人工智能基础设施资源共建共享以打通接入壁垒。此外,也要完善接口退出的标准和机制,提供用户中辍使用的自主选项。另一方面,需要加强技术和多元场景的适配,在保障数据和隐私安全的基础上,加强不同场景的数据模块化训练,实现多元场景的无缝衔接,完善各场景与AIGC接入和适配的服务、运营、运维、安全等系统架构。此外,如果AIGC普遍引入政府,必须考虑建立相应的反馈、纠偏和问责的制度体系。
作者简介:曾润喜,重庆大学新闻学院教授;秦维,重庆大学新闻学院博士研究生。
从技术“玩具”到治理工具:将ChatGPT引入公共治理领域的风险与策略
郑磊 张宏 复旦大学国际关系与公共事务学院
一、引言
2022年底推出的ChatGPT已经在诸多领域展现出惊人的能力,成为通用型人工智能发展及应用过程中的里程碑,其在个人和商业领域的应用正在不断拓展和深入,而其在公共治理领域的巨大潜力也已被提上议程,包括政策制定、效率提升、服务提供、政民互动等各个方面。
突然“涌现”的新技术常常会像“玩具”一样激发人们的好奇心和探索欲,引出对其各种“玩法”的畅想。然而,马库斯等在《如何创造可信的AI》中提出,在理想与现实之间存在着可被称为AI鸿沟(The AI Chasm)的大坑。[1]以ChatGPT为代表的人工智能技术在公共治理领域能被如何应用?又可能面临哪些风险和挑战?本文将就此作一些初步的思考和探讨。
二、ChatGPT与公共治理的张力与风险分析
在将ChatGPT从技术“玩具”转化为治理工具的过程中,既需要充分认识新事物的优势,也应对其局限性和应用环境有足够了解。在将以ChatGPT为代表的人工智能技术引入公共治理领域的过程中,其在通用化、概率化、类人化、技术理性偏好等方面的特性可能会与公共治理的特性和原则产生张力和风险。
(一)通用化与专业性之间的张力:失灵的风险
不同于AlphaGo等应用于特定领域的人工智能模型,ChatGPT是典型的通用自然语言模型,即能在更广泛的领域范围内模仿人类智能。而这一模型的出色表现很大程度上源于其在训练过程中使用了数量庞大、覆盖了各种主题领域的语料库。
作为一个专业化的领域,公共治理有一套不同于公共互联网的话语体系,ChatGPT等生成的内容还不能直接、简单地适用于公共治理领域,而是需要对模型进行重新训练。然而,政府的文本数据不可能全部公开,如果只使用其中部分公开的语料进行训练,可能会导致模型表现平平或以偏概全。同时,还存在着通用化与专业化之间的矛盾,即ChatGPT要在更懂政府专业领域与更懂“普通人”之间进行选择。若要在公共治理领域表现得更专业,则需要增加政府语料进行训练,以使其能使用更专业的术语和文字风格,从而更加贴近这一特定领域的需要,但这又可能会导致模型“不说人话”;反过来,若要表现得“会说人话”,则又难以符合政府业务的专业要求,还需要进行额外的自然语言处理和语言转换,将专业内容转化为易于普通人理解的语言。
在这一转化过程中,技术能否做到在提高输出结果易读性的同时不降低其专业性,仍有待检验。以上这些可能导致将ChatGPT应用于公共治理领域时效果不佳,出现“失灵”的风险。
(二)概率化与确定性之间的张力:失信的风险
作为基于深度学习的模型,ChatGPT输出的答案是由其预训练的神经网络生成的,而神经网络中的参数是随机初始化的,并且训练过程中会根据输入数据进行随机梯度下降优化,这就使得该模型在面对同一个问题时可能会给出不同甚至相反的回答。ChatGPT给出的答案有时会表现得“言之凿凿”,有时会“一本正经地胡说八道”,而在被质疑时又会“随机应变”或“死不承认”,本质上是由于其输出结果是在多个备选答案中随机抽取的、概率化的和无法预测的。对于这样一个日益强大的“数字头脑”,没有人(甚至是它的创造者)能够真正理解、预测或可靠地控制它们。[2]
这种概率化的结果生成方式对于其他领域来说可能成为“灵感”或者“创造性”的来源,但对于公共治理而言则是难以容忍的。毕竟,公共治理是容错率非常低的领域,政府部门处理的是公共事务,承担着公共责任,受到公众监督,具有很强的风险规避型文化。政府追求的方向是控制偶然性、提升确定性,政府基于可靠数据支持决策、利用制度规则保障执行,也是为了实现可预期的治理效果。同样,对于民众而言,来自政府的信息也意味着合法性权威,而这种权威也与确定性直接相关,关系到民众对政府的信任及其对公共政策的认可、接受与支持。因而,简单直接地将ChatGPT等模型生成的具有随机性和不确定性的信息应用到公共治理中,可能会影响政府的信誉,带来“失信”的风险。
(三)类人化与非人格化之间的张力:失德的风险
基于海量自然语言数据的训练,ChatGPT在类人化上取得了前所未有的进展,能够“听懂人话”,并将模型处理的结果以“人话”输出,无论在内容和形式上都在向“常人”贴近。使用者不再需要使用专门的编程语言便能轻易使用,尽管用户对同一问题的不同提问方式会影响所得答案的质量,但整体上这类工具的使用门槛已经前所未有地降低了。
不过,人工智能模型在通过大量学习语料获得理解人类的能力的同时,也难以避免受制于语料本身的局限性。例如,互联网上的文本数据中可能存在着各种各样的偏见和歧视,包括性别、种族、地域、文化等方面。由此,人类自身存在的偏见也被吸收到数据集中,并经由模型的训练而被进一步固定或强化,最终体现在模型输出的结果中。换言之,类人化的AI所模仿的是自身并不完美而有着种种缺陷的人。而且,在这一过程中,原本相对较为明显的偏见也可能变得更加隐蔽,以一种难以察觉的方式对使用者产生影响。
然而,在公共治理领域,非人格化是现代政府的一个重要原则,即政府行为应尽量排除个人因素的影响,按照源于社会共识的制度规则行使权力,实现公平公正的治理,而不能让少数人的偏见扭曲公共权力的使用。政府需要通过建立更透明的决策机制、更规范的执行机制、更多元的监督机制、更广泛的参与机制等方式,尽可能地控制住偏见的干扰。对于已被吸纳在技术模型中的偏见,则很难通过现有的制度规则来发现并对其进行有效约束。因此,如果政府在决策过程中直接基于或过于依赖ChatGPT等人工智能模型导出的结果进行决策,将可能固化和强化既有的偏见和歧视,影响到特定人群的切身权益,加剧社会的不公与鸿沟,这将有违公众对公共治理的基本道德期待,带来“失德”的风险。
(四)技术理性与价值权衡之间的张力:失向的风险
与其他智能工具类似,ChatGPT输出的结果是根据输入或设定的参数通过特定计算方式生成的,这使其倾向于在预设目标的指引下生成技术理性上的“最优”路径或“最佳”方案。而且随着训练数据集容量和参数量的增加,这种技术理性偏好会愈发强烈,即追求模型性能的提升以更高效地实现特定目标,而对这一目标之外的其他未纳入模型的因素则容易被弱化或忽视。
公共治理并非纯粹的技术事务,而是一个政治过程。一项合理的公共政策既要考虑经济效应,又要考虑对社会、政治、文化、生态等方面的影响;既要考虑直接目标群体,又要考虑间接利益相关者;既要考虑内部的成本收益,又要考虑外部性;既要考虑短期效果,又要考虑长期效益,需要对不同价值进行权衡,也涉及到不同利益相关者之间的反复博弈与妥协,往往最终能被各方接受并真正落地的政策并不是在技术判断上最“优”的选择。因此,人类社会和公共事务的复杂性还难以被技术工具完全、精准地计算,若是以ChatGPT等大语言模型的技术理性完全取代价值判断与多方参与,很可能会压制多元利益诉求的表达,使整个社会陷入技术霸权的泥潭,而与增进公共价值的方向背道而驰,出现“失向”的风险。
三、将ChatGPT等大语言模型引入公共治理领域的策略建议
以上张力和风险并不意味着应当将ChatGPT等大语言模型拒于公共治理之外。一方面,这些问题产生于当前的技术能力,可能会在未来通过技术进步得到缓解;另一方面,政府部门也可通过制定适当的策略来应用ChatGPT为自己赋能。正如新加坡政府科技署政府数字服务部门副总监Yeo Yong Kiat所言:“作为政策官员,我们所做的一切,无论是编写会议记录还是批准预算文件,只是为了调动资源(例如人员、资源、计划、系统)来解决一个常见问题。一旦我们从这个角度看待自己,ChatGPT就会成为推动者,而不是破坏者。”[3]
就目前而言,ChatGPT的发展已经为探索公共治理的未来形式提供了许多可能性。如何在将ChatGPT等大语言模型引入公共治理领域的过程中避免失灵、失信、失德、失向等风险,而成为一个可用、可信、可靠和可亲的“推动者”?本文从以下几个方面对其在公共治理中的应用策略提出建议。
(一)实效为上,而非“无所不用其技”
技术执行理论指出,信息技术是赋能者(enabler),而不是决定者(determinator)。信息技术的实施方式和效果受到制度与组织因素的制约,技术逻辑并不必然带来制度和组织的变化。[4]数字治理的持续发展面临着复杂而动态的挑战,取决于社会趋势、人性因素、技术变革、信息管理、治理目标和政府职能之间的相互作用。[5]虽然ChatGPT已被公认为是一项革命性的新技术,但其在公共治理领域中的应用可能仍然无法跳出以上这些分析框架。
在公共治理中,没有最先进的技术,只有最合适的技术,更先进的技术并不必然会带来更好的治理,再好的技术也纠正不了政策和管理自身的问题。在将ChatGPT等大语言模型引入公共治理的过程中,首先要回答的问题不是我们要用ChatGPT玩出点什么,而是仍然要从问题导向和需求导向出发,思考在技术上可行、法律上可为、管理上可控的前提下,ChatGPT能有助于解决哪些公共治理问题,满足哪些公众需求?并能产生哪些实际效果?政府承担着为全民提供公共服务和管理社会的职责,既要充分利用各种成熟可靠的新技术,也不能一味追逐技术热点,“无所不用其技”,陷入技术崇拜或“唯技术论”,把公共治理领域变成各种尚未经过充分验证的新技术的“试验田”,却忘记了守护公共利益的底线和初心。
(二)人机协同,而非“以机代人”
计算机科学中存在着一种“伊莉莎效应”(Eliza Effect),即人们在阅读由计算机输出的符号序列时往往倾向于从中解读出这些符号本身所不具备的意义,从而认为机器已经具备了人类的情感、价值、道德、逻辑等属性。ChatGPT的流行其实也体现了“伊莉莎效应”的作用。然而,如前所述,ChatGPT等大语言模型只是通过猜出人类在某种情况下最可能说出的话而实现了更“聪明”的模仿,本质上尚无法进行感性的共情,也无法实现理性的逻辑,更难以承担伦理和法律上的责任,因此还难以在公共治理领域中完全取代人的作用。
当然,人难以被完全取代并不意味人不需要做出改变。一方面,ChatGPT模型需要不断优化以更好地满足政府的业务需求;另一方面,人也需要不断学习以提高其应用新工具的能力,未来人机协同将越来越成为政府的常态工作模式。这就对政府公务人员的能力素养提出了新的要求,其中有两项基本能力将变得尤为重要:一是提出恰当问题的能力,政府工作人员需要掌握向ChatGPT等大语言模型恰当提问的技巧,以得到高质量的回答。二是对ChatGPT的回答进行验证和判断的能力,这要求政府工作人员需要具备更高的专业知识和素养,以发现回答中出现的错误和偏差,避免简单化机械化应用ChatGPT可能带来的风险。毕竟,最终能负责任的不是工具本身而是使用工具的人,ChatGPT实际上对政府工作人员的素养能力提出了更高的要求,只有这样才能真正将新技术为人所用、为人赋能。
具体而言,ChatGPT等大语言模型可先在公共治理领域的以下场景下进行探索:
一是内部办公场景。例如,政府内部的公文写作、表格填写与信息录入、任务分配、流程管理与追踪监督等相对而言机械性强、重复性高、有“模板”可循的工作,可以引入ChatGPT等大语言模型以提高效率,减轻事务性工作负担,提升质量。
二是决策支持场景。例如,在舆情分析监测与应对中,ChatGPT等大语言模型可用于帮助决策者更准确、更高效地理解隐藏在各种信源中的“民意”,并通过自动化分析生成具有逻辑性、连贯性和可读性的决策参考报告。
三是服务和互动辅助场景。ChatGPT等大语言模型对自然语言的处理能力使得在公共服务和政民互动中实现更为智能的对话与交互有了更大的可能性,可探索在咨询、办事、投诉、建议等领域接入类ChatGPT大语言模型以协助处理信息并生成初步的回复内容。然而,在初期阶段,ChatGPT等大语言模型应尽量限制在政府后台而非前台使用,与民众进行的直接互动仍应由工作人员在ChatGPT等大语言模型的辅助下完成,由人来做好语言“转换器”和内容“守门员”,实现人机协同,而不是让ChatGPT等大语言模型直接面对公众,成为政府的化身,任其“自由发挥”。毕竟政府所应提供的是在人工智能大语言模型辅助之下的更优质高效的服务而非大语言模型本身。
(三)知识共练,而非“小作坊林立”
ChatGPT可被视为一个集合了海量公开知识并能与人对话的“百科全书”,在一定程度上替代了搜索、查找、整合和初步输出等环节,有利于推动知识的传递、传播和传承。
公共治理是一个既复杂多元又稳定持续的过程,一方面需要处理多样且不断变化中的问题和需求,但另一方面,又确实有许多政府职能是在一个个“标准化”“程序化”“模块化”的工作中实现的。在不同层级、不同区域的同类部门,乃至不同部门之前都存在着大量可共享和复用的知识,如业务流程规范、治理案例经验、应急处置预案等。然而,这些在长期实践中积累下来的知识往往很难突破各自的“知识小作坊”边界,因而未能发挥出更大的作用、产生更大的价值。
在过去的模式下,往往只能通过上级政府的推广或者同级政府的学习等路径进行知识的共享扩散,但这种方式往往是单向输出的,缺少双向反馈和持续积累,由此造成了不同地方和部门的重复“创新”、重复建设和重复总结等问题。未来,在ChatGPT等技术的加持下,可通过对政府内部语料的整合,在保障安全的前提下,打破各个“知识小作坊”之间的壁垒,打造共建共治共享的公共治理知识底座,为大语言模型提供更为海量丰富的专业训练语料,从而提高模型的输出能力,最终降低治理成本、提升治理效率、促进治理创新。
希望上述风险分析和策略建议有助于将以ChatGPT为代表的大语言模型从技术“玩具”引入公共治理领域转化为治理“工具”。
作者简介:郑磊,复旦大学国际关系与公共事务学院教授、博士生导师,数字与移动治理实验室主任;张宏,复旦大学国际关系与公共事务学院博士研究生,数字与移动治理实验室研究助理。
ChatGPT等人工智能内容生成技术对法治政府建设的影响及应对
张效羽 中央党校(国家行政学院)政治和法律教研部
ChatGPT的英文全称为Chat Generative Pre-trained Transformer,由Chat和Generative Pre-trained Transformer(GPT)组成,其核心技术是GPT,如今已经发展到第四代GPT-4。GPT属于人工智能内容生成技术(AI Generated Content,AIGC),亦属于通用人工智能(Artificial general intelligence,AGI)。根据微软研究院发布的《人工通用智能的火花:GPT-4的早期实验》报告分析:“除了对语言的掌握,GPT-4还能解决跨越数学、编码、视觉、医学、法律、心理学等领域的新颖而困难的任务,而不需要任何特殊的提示……在所有这些任务中,GPT-4的表现都惊人地接近人类水平,而且往往大大超过了ChatGPT等现有模型。”而在众多考试中,“GPT-4 在Bar考试(即美国的律师考试)里击败了90%的人类,在SAT阅读考试中击败了93%的人类,在SAT数学考试里击败了89%的人类”[1]。这种状况的出现,使得我们不得不认真思考ChatGPT等人工智能内容生成技术(AIGC)对法治政府建设的影响及应对。
一、GPT技术的长处和法治政府建设的基本需求具有技术亲和性
“法治有很多不同的含义和推论。它的基本含义是,任何事件都必须依法而行。将此原则适用于政府时,它要求每个政府当局必须能够证实自己所做的事是有法律授权的……政府行使权力的所有行为,即影响他人法律权利、义务和自由的行为都必须说明它的严格的法律依据。”[2]可见,法治政府建设的最基本目标就是依法行政,让所有行政活动在法律轨道内进行。法治政府建设的本质就是确立法律对政府的权威。
法律的基本内容并不神秘。尽管从更深刻的法学理论看,依法行政中的“法”不仅包括具体的法律规范、法律规则,还包括抽象的法律原则甚至法治理念。但在大多数情形下,法或者法律仍体现为一条又一条明确的规则,而这些规则都是用语言文字表达出来的。以《行政处罚法》第三十条为例,其规定:“不满十四周岁的未成年人有违法行为的,不予行政处罚,责令监护人加以管教。”这是一条法律,也是一段语言,同样体现为31个字的文字材料。“在此意义上,正如A·考夫曼和N·麦考密克(Neil MacCormick)所指出的,法学不过是一门法律语言学。”[3]二战以后法理学出现了向语言学的转向,更深刻地解释了法律首先作为一种语言的性质。
GPT技术是基于大语言模型(LLMs)的人工智能内容生成技术,这一技术路线的特点是预先学习了超大规模的日常语言文字语法等材料。尽管人工智能不是人,但其对一般法律问题的回答并不逊于人。再以上文提及的《行政处罚法》第三十条为例,尽管人工智能模型无法完全理解“不满十四周岁”“未成年人”“违法行为”“不予处罚”这些语义要素背后的全部含义,但如果有人问他一个不满十四周岁的人有违法行为是否会引发一个“行政处罚”,则其会根据受训的情况很快回答出“不满十四周岁的未成年人有违法行为的,不予行政处罚”的答案。这种问答,至少在形式上可以视为一种关于法律问题的问答。正因为如此,GPT-4在美国律师考试中能够达到前90%最优成绩,回答基本法律问题是GPT-4的长处。
可见,法律可以被视为一种语言,而基于大语言模型训练的GPT恰恰是处理关于语言问答的专家。在法治政府建设中,对政府行政活动进行合法性审查,即法制审核工作,是法治政府建设最基本的工作,这些工作中大部分都可以视作为一个又一个关于某项活动是否符合或者不违反法律法规条文的问题。比如,对未经批准燃烧秸秆导致大气污染的人是否可以行政拘留?诸如此类的这些问题,与律师考试或者大多数法律考试中的问题别无二致。既然GPT-4在律师考试中能够达到前90%最优成绩,那么可以认为基于大语言模型的GPT技术有希望正确地回答大多数关于政府活动是否合法的问题。因此,基于大语言模型的GPT技术与法治政府建设具有天然的技术亲和性,在法治政府建设领域应用前景广阔。
二、人工智能法制审核应当成为行政执法的必备程序和外在约束
仅仅将基于大语言模型的GPT技术视为政府法治工作的助手和工具,低估了GPT技术的意义。在GPT技术之前,法律检索系统甚至一般的搜索引擎、法律词典、法学教科书、法律条文解读著作也是政府法治工作的有效助手和工具。人工智能法制审核还应成为政府行政执法的必备程序和外在约束。所谓必备的程序,是要求行政执法都必须经过基于人工智能技术的法制审核外在约束,是指行政执法机关不能无视人工智能法制审核给出的结论。如果在人工智能法制审核环节,人工智能技术将提交审核的行政执法决定判定为不合法,则行政执法机关必须采取更多的措施证明自己的合法性,或者必须就合法性问题做出特别说明,否则相关执法活动不能被视为合法。
尽管当前人工智能技术无法完全替代人工法制审核审查,但GPT技术在法律考试中展现的能力已经表明,在相当多情形下,人工智能合法性审查水平不亚于人工法制审核。人工智能法制审核的核心优势还不在于法制审核质量,而表现为以下两方面优势:
第一,人工智能法制审核受到的主观因素干扰较少,相对客观。尽管人工智能也是人训练出来的,无论是训练人工智能的基础材料还是更精确的训练模型、算法,以及对具体问题的工程师矫正都会掺杂主观因素,甚至是“有毒内容”,但相较于具体的人,人工智能合法性审查受到的主观因素干扰仍然较少。具体GPT技术成型后,对大多数该项技术的使用者而言,其回答是不受控制的。而现实中针对政府活动合法性审查面临的一个重要问题是审查人员往往受到主观因素的干扰,不是基于法律而是基于其他考虑做出法制审核结论,而人工智能法制审核可以轻而易举排除在具体应用阶段的主观因素。
第二,人工智能法制审核大规模实施的成本很低,能迅速提升落后地区的法制审核水平。尽管训练一个精通法律的人工智能GPT模型的成本不低,但一旦训练成型就可以大规模反复应用。后续成本投入有限,而大规模铺开应用会产生规模效应,使得单次法制审核成本迅速降低。相较于目前各级政府要雇佣大量学习法律的人员进行法制审核,人工智能法制审核的成本很低。我国有不少地区目前还无法按照有关要求配置充足的通过法律职业资格考试的行政执法法制审核人员,人工智能相关技术可以部分缓解这一困境,迅速提升落后地区的法制审核水平。
值得指出的是,人工智能法制审核在任何意义上都不可能完全或最终替代人工法制审核。人工智能法制审核在未来只能是行政执法法制审核的一个必经程序、一个不能被忽视的参考,而最终行政执法是否合法还需要人来判断。
三、未来法治政府建设要为人工智能嵌入行政执法程序做好充分准备
技术的进步及其扩散是不以人的意志为转移的。不论我们如何看待以GPT为代表的人工智能内容生成技术,这些技术都会迅速发展并深刻地改变我们的世界。GPT等新技术替代的不是人而是不会使用GPT等新技术的人。不论政府是否愿意将人工智能法制审核当成行政执法的必备程序和有法律意义的约束,都会有越来越多的政府法制工作人员、律师乃至行政相对人用GPT等新技术对行政执法活动进行合法性审查。届时,除了少部分复杂法律问题需要由法律专家进行分析外,大部分法律问题实际上均可以由人工智能技术解决。因此,未来法治政府建设要为人工智能嵌入行政执法程序做好充分准备。
首先,建立和完善向人工智能系统科学提问的规范。在人机交互人工智能技术迅速发展的时代,不会向人工智能提问就和在互联网时代不会用鼠标一样。从ChatGPT相关情况看,提问者提问水平直接影响回答水平。错误的提问也会得出错误的回答。因此,如果要使得人工智能法制审核嵌入行政执法程序,就必须对提交给人工智能法制审核的问题进行科学化、规范化整理。这有赖于行政执法电子文档等基础资料的完善,也有赖于专门提问规范的建立。甚至要专门培训能够向人工智能系统进行科学化、规范化提问的专业人员。未来的政府法制人员可能首先是向人工智能提问的高手。
其次,必须加快行政执法基础资料库建设。GPT是基于大语言模型建立的,其质量和大语言模型的质量息息相关。在大语言模型数据库中,法律法规的相关数据很容易寻找并录入,但要想人工智能技术在回答行政执法法律问题时发挥更大的作用,还有赖于大量行政执法基础资料的录入。当前,很多地区已经将行政执法指南、手册乃至行政执法案卷电子化。接下来,要对这些数据进行整体梳理分析,并将其转换为人工智能法制审核的能力。
最后,要在未来行政程序立法中为人工智能留有余地。长期以来,我们仅仅将人工智能技术视为一种辅助,没有赋予其在程序中的必要地位。人工智能技术就好比行政执法人员办公时使用的电脑或计算器一样,可用可不用。但随着人工智能技术的迅速发展,这种做法不利于更好地发挥人工智能和人类智能两类优势。因此,在未来行政基本法或行政程序法的立法中,要为人工智能留有余地,比如在重大行政决策程序中增加征求人工智能意见的内容,在行政立法程序中将人工智能审核当成必经程序。
作者简介:张效羽,法学博士,中央党校(国家行政学院)政治和法律教研部教授。
人工智能、人机交互与行政负担
马亮 中国人民大学公共管理学院
以ChatGPT为代表的新一代人工智能(AI)技术,被认为是具有革命性和颠覆性的创新科技,有望带来数字技术的快速发展、深度应用和广泛影响。ChatGPT是一种通用型AI技术,具备搜索、对话、编程、写作等许多功能,并有很强的功能延展能力。ChatGPT之所以流行,同其作为一款优秀的聊天机器人有很大关系。ChatGPT可以轻松理解人们输入的指令,并结合上下文进行问答和纠错,给用户以全新的人机对话体验。
如果能够将ChatGPT的人机对话功能加以开发和应用,将会极大地改变数字政府,并使政民互动发生深刻变革。与此同时,当ChatGPT这样的技术用于政府和民众的沟通时,可以显著降低行政负担特别是学习成本,使民众对数字政府的满意度进一步提升。因此,本文重点探讨新一代AI技术如何革新和改善人机交互过程,进而降低民众经历的各类行政负担。
政民互动是政府和民众之间的对话和沟通,是公共管理的核心议题。政府只有与民众建立并进行顺畅的对话和沟通,才能维系执政合法性并赢得民众信任。政民互动既可以是民众发起的咨询、建议或投诉,也可以是政府提出的问询、调查或反馈。政民互动是一来一往、有来有往,强调政府和民众之间双向交流和相互沟通。
民众在同政府打交道的过程中,往往需要经历和承受各种各样的成本,这被称为行政负担,是影响政民互动质量、政府绩效和社会公平的重要因素。行政负担一般认为包括三类成本,分别是学习成本、服从成本和心理成本。学习成本是人们为了了解和掌握政府办事程序和要求而必须付出的学习成本或“学费”,这包括搜索、咨询等方面的负担。服从成本是人们为了满足政府提出的各类要求而必须付出的成本,如跑动、材料、等候时间、办事费用等。心理成本贯穿于政民互动的整个过程,是人们在同政府打交道的前中后都会经历的焦虑、恐慌、惴惴不安等负面精神状态。
在数字技术引入前,政民互动是人与人之间的面对面对话,典型表现为街头官僚或基层干部同民众之间的沟通。比如,巡警拦截行人或车辆,政务大厅办事窗口工作人员为人们办理行政审批事项。办事人员的一言一行和一举一动都代表政府的形象,也会影响民众的感知和体验。政民互动的程序设定和具体执行,也会影响民众经历的行政负担。比如,政府衙门“门难进,脸难看,事难办”的“三难”,就会全方位加重各类行政负担。
各类数字政府应用使人们可以通过各种数字媒介同政府打交道,也使政民互动体验和行政负担明显降低。政府1.0以官方网站和电子邮件为主要媒介,而政府2.0则主要使用社交媒体。政府2.0和政府1.0的最大区别,就是强调从政府对民众的单向传播走向政府与民众的双向交互。
相对于面对面的沟通,数字政府是公务员通过数字媒介同民众交流,是以数字技术为媒介的人与人交流。数字技术既可以降低行政负担,也会在某些方面加重行政负担。数字技术让人们更便利地随时随地交流,也会因为在线交流而带来信息损耗,进而导致行政负担有增无减。
随着AI技术的发展和应用,不少政务热线和政府网站使用智能机器人,解答民众的询问并进行回访。这往往是通过预先设定的程序和模式而实现的,在简单的程式化场景下应用广泛。然而,这些AI技术的“智商”不高,往往答非所问或一问三不知,饱受诟病并被民众斥责为“智障”。这使智能客服只能承担一些辅助性和基础性工作,还无法取代人工,发展前景也不乐观。
以ChatGPT为代表的新一代AI技术,在人机对话方面的功能强大,使人机交互的前景光明,也让人机协同的数字政府越来越成为可能。ChatGPT基于大语言模型而进行高参数和高强度训练,可以更流畅自然地同用户对话和交流,并能够分析海量数据来满足用户的指令和请求。将新一代AI技术用于人机交互特别是政民互动,可以极大地改善民众与政府打交道的体验,并显著降低行政负担。
将ChatGPT这样的AI技术用于政府信息搜索和业务咨询,可以使人们更轻松地获取最新最全的办事要求,并一步一步讲解和解答。这会使民众可以很快搞清楚怎么办事,并显著减少学习成本。目前,不少政府网站和应用程序都存在搜不到、搜不准、搜不全等问题,线上线下的规定不同,不同部门和人员的口径不一,都使人们在办事前就因为找不到路径而遭受无妄之灾。即便是可以搜索到位,这些用户界面也往往是千人一面的统一要求,缺乏千人千面的定制化要求,回答不了“我这种具体特殊情况如何解决”的问题。AI技术的应用将有望革新人们的搜索和咨询环节,比如加载ChatGPT的网页浏览器和搜索引擎,不仅可以返回用户需要的信息,而且可以对最相关的信息进行加工而形成用户指定的格式文本。
与此同时,未来甚至可以部署ChatGPT来进行行政审批和政务服务,取代或辅助人工进行“秒批”。目前,ChatGPT主要用于文本处理,也可以进行多模态交互。ChatGPT为用户提供决策辅助和咨询服务,未来也能够成为决策机器人。用户可以输入提前准备好的各类材料,并由AI技术进行智能审批,能够实现问询与办理的同步和融合,并明显减轻人们的服从成本。换句话说,民众在询问的同时就将事项办理了,也不需要填写各类表格,并足不出户地完成政民互动。这会使数字政府从“人工+智能”走向“智能+人工”,甚至走向完全意义上的智能政府。
ChatGPT这样的AI技术善解人意,可以拟人化地同用户交流,并使民众在整个交互过程中缓解紧张情绪,轻松愉悦地完成整个流程。随着人机交互界面的日益优化,人们会越来越适应同机器的互动并减轻心理成本。当然,AI技术仍然被认为缺乏情感和感情方面的能力,还无法达到人类的情商水平,也会影响用户对人机互动的体验。多数民众同政府打交道是为了办理事务和解决问题,就事论事的“办成事”占据更主要的位置,因此这方面的顾虑大可不必。
要想使ChatGPT这样的通用型AI技术用于数字政府,就需要进一步研发和创新专用功能,满足不同业务领域和应用场景的具体需求。但是,要警惕和避免数字政府建设初期的前车之鉴,即将线下政府业务流程原封不动地照搬到线上,进一步固化既有的政府运行程序,而并没有实质性推进政府数字化转型。特别是对于中国这样的单一制国家来说,AI技术在政府部门的部署可以在中央层面进行顶层设计并全国通用,避免各地做法不一而带来共享和融合难题。
随着AI技术的部署和应用,很多政府办事流程和要求都将遭遇合法性危机,而不得不先行调整后加以数字化和智能化。比如,即便遵循的是同一部法律,全国各地的政务服务事项在名称、要求、材料、时限等方面却五花八门、千差万别。如果AI技术的应用使这种政出多门的既成事实进一步固化和强化,那么就背离了智能政府的初衷。因此,要加强AI技术的全国统筹,既可以避免重复建设而减轻研发和应用的成本,也能够使AI应用轻装前进。
当然,要想实现上述愿景,就需要在政府数据基础平台和知识库建设方面下功夫,使AI技术可以发挥应有的作用。ChatGPT这样的AI技术能够回答什么问题和回答到什么程度,主要取决于其所搜索的数据库有多大多全多新。如果政出多门,各类数据是割裂的和分散的,无法将其加以汇聚和综合,那么AI技术再先进也无力回天。建立互联互通的全国政务服务大数据平台,不断更新和积累政民互动数据,智能机器人的回答将越来越精准化和定制化,并使民众同政府打交道的行政负担持续降低。
从技术创新扩散的历史来看,先进技术能否得到快速、大规模和深度的应用,同其具备的优势、成本、复杂性、可视性、兼容性等属性有关。ChatGPT这样的AI技术优势明显,但是在成本、兼容性等方面并不占优,政府使用的意愿也有待考察。特别是当AI技术在取代和重塑很多政府部门及其工作人员时,他们抵制技术应用和变革的问题也需要关注。
当智能政府具备了强大功能后,会对当前的政府架构和制度规则产生颠覆性冲击,对此需要未雨绸缪地提前筹划。比如,当民众与政府的交互完全在线智能完成,那么政府的行政层级和辖区边界将会消失,公务员的规模、结构和任务也需要发生改变。这需要法律法规和规章制度的改变,也需要各类配套政策的支撑,以适应智能政府与民众互动的要求。
作者简介:马亮,中国人民大学公共管理学院教授,中国人民大学国家发展与战略研究院研究员。
ChatGPT等大语言模型嵌入政府治理的四个小切口
翟云 潘云龙 中央党校(国家行政学院)公共管理教研部
自2022年11月ChatGPT发布以来,相关话题讨论的热度在学界内经久不衰。有观点甚至认为这是“人工智能界的iPhone时刻”,由此不难窥见ChatGPT对于业内外人士的冲击与震撼。概括来说,无论是ChatGPT还是后续发布的衍生产品New Bing、GPT-4,本质上都是基于回归技术的大语言模型(Large Language Model),其底层逻辑是在给出情境文本的基础上通过“预测下一个词→带入文本→预测下一个词”的迭代循环实现人类自然语言的输入输出。与传统语言模型相比,大语言模型的革命性突破集中体现为它在海量数据的训练过程中逐渐产生了一定的理解、推理乃至创造的能力。不可否认,大语言模型所体现出来的“智能”仍有很大的局限性,但这并不妨碍我们对其在政府治理领域可能产生的影响做深入思考。2023年2月印发的《数字中国整体建设规划布局》明确指出,要“发展高效协同的数字政务”,ChatGPT等大语言模型作为当前人工智能技术的集大成者,如何充分发挥其优势为政府治理提质增效,同时规制潜在的安全风险与伦理冲突,种种问题亟需解答。
一、ChatGPT等大语言模型嵌入政府治理的切口
本文拟从认知、技术、数据和服务四个方面进行初步讨论,以期为相关研究提供些许启示。
(一)认知维度
ChatGPT等新型大语言模型的出现加速了社会对于政府治理的认知迭代,进而为当下正在发生的“数字治理”变革注入了强劲动力。从政府治理的理论演化及实践变迁来看,自20世纪90年代学界就开始对“新公共管理运动”开展了一系列的深入反思,各类新兴理论层出不穷,因而这一时期又被称为“后新公共管理理论丛林”。在观点纷呈的诸多理论流派之中,以帕克·邓利维(Patrick Dunleavy)为代表的“数字治理”理论因继承了治理理论的多元共治思想并且考虑了技术革新带来的系统性影响而独树一帜。[1]然而,出于对行政伦理的反思以及受限于当时的技术环境,数字治理理论一开始并没有得到重视,其在实践中也大多体现为以政务信息化为标的的电子政务改革样态。时至今日,以ChatGPT为代表的大语言模型给人类社会带来了颠覆性的认知冲击。相比于区块链、云计算等具有一定专业壁垒的诸种前沿技术,大语言模型以其惊人的自然语言处理能力成功“出圈”,这不仅迫使我们重新思考人类自身的主体性,同时也让我们就“数字时代已然到来”这一命题达成了广泛共识。以此为基础,有必要将“数字治理”重新纳入学理研究及政府治理实践的主流视野之中。尤其是身处中国式现代化的历史方位,如何以数字治理作为驱动引擎开辟中国式现代化新境界,是亟需我们回答的时代课题。
(二)技术维度
应用ChatGPT等大语言模型能够深入推进自动化行政,盘活治理效能,让政府治理实现“技术升维”。自动化行政即依托人工智能等数字技术实现的部分过程或全过程的无人化行政活动,当前其在实践中的代表案例有深圳的“秒批”、广西的“智能审批”以及上海浦东的“无人干预自动审批”等。一些如会议记录、文书撰写等常规性文案工作亦可以借助自动化行政完成。从这个角度来看,自动化行政的重要意义在于它消解了不必要的行政负担,让政府干部尤其是基层干部从“繁文案牍”中解救出来,进而投入到前瞻性、全局性、创新性的工作之中。可以说,推进自动化行政能够优化政府内部的资源分配,更充分地释放治理效能。由相关评测报告可知,ChatGPT在经过高质量语料库的训练后已然可以支持人类自然语言的连续对话,辅助公文写作、整理文稿更是不在话下。[2]其衍生产品Microsoft Copilot、GPT-4同样具有强大的串联效应,前者能够通过对话自动转换、整合及分析不同格式的资料,驱使政府日常运行更为高效敏捷;后者则植入了图像识别功能打通“图文理解”的难点,既为自动化行政做“加法”,也为一线干部做“减法”。就此言之,将相关人工智能技术引入政府治理之中与政府职能转变的改革思想是一脉相承的,即精简各类重复或不必要的行政流程,有效削减“流程存量”,着力控制“流程增量”,最终推动政府治理在技术赋能下完成流程再造,让干部队伍重新聚焦主业并凝聚成有为有力的“战斗堡垒”。
(三)数据维度
ChatGPT等大语言模型将打通传统政府治理中数据链路的隐性桎梏,重构数据流通与数据处理的系统结构,倒逼各层级、各职能政府单位原有的权责体系进行深度调整。在数据流通方面,政府现有数据链路中常常出现的“数据孤岛”“数据烟囱”“要数比要饭难”等现象,一方面根植于长期存在的部门主义、单位主义,另一方面也是部分单位因数字素养不足、技术环境不佳而缺少畅通数据循环的主客观条件的深切反映。如前文所言,大语言模型相比于传统人工智能技术的重大优势在于它能够在一定程度上理解人类的自然语言并完成相关指令的操作运行,这将强有力地弥补当前我国公务员队伍在数字素养上的短板并借此创造更贴合治理情境、更契合政务服务的技术环境。在数据处理方面,政府治理中现有的数据处理模式常常陷入需求输出“两张皮”的二律背反困境,或是经由内部处理而挖掘深度不足,或是委托外包企业而开发规模受限、效能低下。凡此种种,需求端与供给端的匹配失衡,本质上是组织逻辑与技术逻辑在相互嵌合过程中产生的结构性张力使然。如果说大部分数字技术都因欠缺拟人化的社会性而受制于这种张力的话,那么大语言模型则因具有良好的交互能力而有助于以“柔性嵌入”弥合“刚性张力”。当数据流通与数据处理的系统结构被重新建构后,政府内部的权力格局也将解构重组。正所谓“数据即权力”,数据链路的再造将直接催化权力流转。
(四)服务维度
精细化、个性化的智能政务服务同样需要ChatGPT等大语言模型夯实“数字基座”。从“被动服务”到“主动服务”,从“人找服务”到“服务找人”,以人民为中心这一价值旨归始终贯穿于我国政府治理数字化转型的全过程。在实践过程中,尽管已有部分地区实现了基于用户分类的“千人千面”式智能服务推送,但若从受众体验的角度来看,其与传统人工服务所提供的“在场情境交互”相比仍有一定距离。而大语言模型的出现及应用可谓是为智能政务服务补上了最后一块技术拼图。在用户端接收到信息后,先对其中的自然语言进行信息噪音过滤及核心内容筛选,随即在政府提供的相关材料基础上形成规范问答文本模板训练完善输出模块,最终高效有序地完成内外信息的聚合输入与集成输出。与同类政务服务问答平台或App相比,大语言模型能够适应各类应用场景且享有更高的交互自由度,这意味着它的使用门槛比同类产品低了不止一个数量级。如此,只要有网络设备,便可拥有近乎全知全能且随时在线的“掌上政务助手”,智能化、拟人化的政务服务将通过互联网触达每一个人,人人皆可“问政”,人人参与“智治”。诚然,这一设想若要真正落地,还需为其配套整合横竖纵深的相关信息系统方能“上接天线下接地气”。可以预见,这将是智能政务服务的必然发展趋势。
二、ChatGPT等大语言模型嵌入政府治理的风险
需要特别强调的是,在大语言模型等人工智能技术嵌入政府治理的过程中,必须事先对相关潜在风险进行综合研判并做好应急处置,以防患于未然。
整体观之,相关风险大致集中在安全隐患与伦理冲突两个方面。其中,安全隐患包括数据安全、隐私安全以及国家安全等。大语言模型若要广泛应用于政府治理,必然需要大量的政策文本、业务数据进行大规模问答训练和学习。与传统认知有出入的是,外界是无法在技术上通过参数调整、代码指令直接控制大语言模型的相关行为,其输入输出过程是一个不透明的“黑箱”。换言之,我们无法对ChatGPT的生成内容建立起绝对的控制,更不必说试图一劳永逸地针对安全问题拉起“安全绳”“防护网”。因此,在对大语言模型应用于政府治理中的边界形成基本共识前,有必要先在相对安全的“沙盒”环境中开展相关试点实践项目。开放式应用项目则需要仔细斟酌,或可结合目前正在推进的数据分级分类制度进行比对。
至于伦理冲突方面,行政卸责、算法歧视以及价值有偏等问题均是大语言模型可能带来的伦理挑战。行政卸责在应用人工智能的治理情境中又表现为“算法卸责”,即行政机关可以将决策责任推卸给算法与机器。算法歧视则是人工智能长期以来广为诟病的痼疾,其实质是训练资料中内蕴的主观倾向的聚合表现,而价值有偏问题亦与算法歧视紧密相连。要破解上述伦理困境,势必要建立专业化的管理机构并设置针对性条例法规,以持续更新、动态优化的伦理监管突围“智械危机”。
未来已来,新一轮科技革命正扑面而来,我们既要怀着开放包容的心态“集百家之长”,又要秉持审慎务实的原则“结本土之实”。在ChatGPT等大语言模型嵌入政府治理的繁复进路中,紧紧抓住认知、技术、数据和服务这四个具体的“小切口”,将有助于我们把握人工智能与政府治理互动机制的核心路径,进而对未来政府治理模式形成更清晰的认知,最终为政府数字化转型和数字中国建设添砖加瓦。
作者简介:翟云,中央党校(国家行政学院)公共管理教研部研究员;潘云龙,中央党校(国家行政学院)公共管理教研部硕士研究生。
“工具”“语伴”还是“智慧体”?面向不同隐喻的ChatGPT治理
李晓方 河海大学公共管理学院 彭云 中国行政管理学会
得益于大语言模型在自然语言处理方面的进展,作为通用人工智能的萌芽,ChatGPT引起了人们的广泛关注。抽象理解、视觉、编码、医学、法律等方面的优秀表现,预示着类ChatGPT应用在未来工作和生活场景中的广泛渗透。那么,应该如何看待ChatGPT的发展?它对社会生产、生活已经或者可能造成怎样的影响?政府应该如何回应?此类问题的回答,与ChatGPT的应用场景、可能的技术路线、技术成熟度、技术伦理等问题息息相关。本文从隐喻的角度出发,讨论ChatGPT的变革作用以及政府回应问题。在很大程度上社会和政策制定者将ChatGPT视为何物的态度,影响了政策制定的空间和选择。
隐喻是人类认知事物的一种方式,它建立在不同事物间的某种相似性基础之上,可以帮助人们简化对抽象和未知事物的理解,从而引导行为和政策方向。理查兹认为,隐喻可以从消费者、概念设计以及法律层面影响人工智能的未来发展。它指导设计者对产品方向的选择、消费者反映以及政策制定者有关权责的分配。[1]那么,用什么样的“隐喻”来理解ChatGPT有助于规制政策的制定和回应呢?结合ChatGPT的技术特点以及未来的可能应用场景,不妨将“工具”“语伴”和“智慧体”作为ChatGPT的喻体加以讨论。
一、“工具”隐喻视角
某项技术视为“工具”,是一种比较常见的类比方式。事实上,许多技术发明也确实成为人类认识和改造世界的工具。那么,ChatGPT作为一种工具与人类历史上其他工具有何共性和差异性呢?
作为一种工具,ChatGPT与其他技术一样可以带来人类某种程度“解放”。比如自动化的内容生成可以降低人们在创作、设计以及问答问题方面的工作负担,可以协助人们加快药物研发、软件开发方面的进程等。
也应该注意到,与其他工具一样,ChatGPT所带来的“解放”效应可能是不均衡的。对于一些人的解放性力量,对于另外的特定人群而言,可能是系统的“压迫”。压迫的来源可能有几个方面:第一,ChatGPT所带来的生产力增长收益在人群中可能是不平等分配的。有些人可能会因ChatGPT应用变得更加高效、多产和富有,而有的人则面临职业替代和就业摩擦。尽管在管理学之父泰勒看来,实现财富最大化的方式只能是生产率的最大化。与生产率最大化相伴生的是财富最大化,而非贫困。当我们回顾科技发展史,容易发现科技革命发展趋势不可阻断,但“机器捣毁运动”始终与其伴随。第二,技术自身的不可靠性可能会放大弱势人群面临风险时的脆弱性,尤其是技术用来加强救济性、福利性支出的监管时。第三,技术误用的风险。数字鸿沟的客观存在使不同人群间存在技术响应的差异。ChatGPT的自动化内容生成方便了网络钓鱼、虚假信息、网络诈骗等网络犯罪活动,客观上增加了网络素养较弱人群的风险。
另一个值得关注的是,与汽车等交通工具拓展人类活动空间和时间不同,ChatGPT及其类似应用的强大之处在于,其不是简单地对程序性、重复性工作的替代,而是呈现出一定推理能力和内容生成能力,具有“创造性”。创造性是人类区别于工具的重要区别之一,ChatGPT的“创造性”对人类思维和创造能力会造成怎样的影响呢?支持观点认为,ChatGPT提高了人们创造效率,“人机协同创造”将成为趋势。另一方面,对工具过度依赖所导致的人自身退化的问题也引起人们关注。[2]“人机协同创造”隐含的前提可能是“计算机辅助人”,在此过程中人始终保持判断自主和责任过程,这也就要求人类必须具有与人机协同相适应的思维能力。如果认可这一观点,那可能意味着对于政府政策而言,必须保证人们在初级、中级的教育阶段接受系列非智能化的教育和思维训练,甚至是职业阶段的非智能环境再训练。训练的目的并非让人退回到没有智能辅助的原有社会形态,而是通过这一过程使人了解内容生成基本的逻辑和推理过程,以保证人在协作中的独立性、主导性以及批判态度,而不是将“计算生成知识”视为理所当然。
二、“语伴”隐喻视角
“语伴”是共同学习语言的朋友。“语伴”意味着平等主体间的交流。这与作为智能助手、智能语音助理的“聊天机器人”有很大不同。“语伴”的隐喻强调ChatGPT在情感陪伴、情感支持等功能方面的潜在应用场景。在生活世界中,个体是在同伴友仁的支撑下成长的。与“友伴群体”交流的过程也是价值观形成和完善的过程。将ChatGPT视为“语伴”,对政府治理而言意味着怎样的挑战呢?可能包含如下几个方面:
一是“意识形态”隐忧。ChatGPT的核心原理是基于Transformer架构,利用大规模网络文本数据进行自监督的训练学习。算法设计、网络语料都可能掺杂特定的价值形态,因此ChatGPT的输出结果也难免受其影响。在维基百科中解决价值争议的方法是通过展现编辑的历史过程、资料来源等方式,ChatGPT对话式的结果展示限制了其保持价值中立的能力,潜在意识形态的影响更加潜移默化。
二是偏见的自我积累和强化。在前ChatGPT时代,因信息的自主选择、智能推送等原因引起的“群体极化”和“信息茧房”效应已引起人们的讨论和重视。在类ChatGPT的应用中,这种效应的影响可能是加大的,因为“对话形态”的内容更加具有封闭性。在前ChatGPT时代互联网平台中,尽管信息渠道越来越封闭,但知识检索、购物入口等依然可以为人们提供一个相对开放的空间,多元信息以多种方式展示给人们,供人批判性采用。作为对话形态,ChatGPT在提供知识和内容方面更具有效率,但人们失去了对观点来源、观点争议等背景信息的了解,偏见的影响将更加潜移默化。另一方面,ChatGPT根据提示生成内容的互动性知识生产模式,使输出内容和结果可以根据个人偏好进行动态调整,可能会导致个人偏见的自我强化,这在ChatGPT的伦理治理过程中可能是需要加以考虑的。
三是作为“语伴”或情感伴侣的ChatGPT,容易产生“移情”的效应。根据 ChatGPT的运作原理,在其与个体长期互动过程中,个性化和定制化将越来越明显。因此,以“友伴”形态出现的个人账号ChatGPT将越来越具有不可替代性,ChatGPT与其使用者之间感情连接将更加紧密,这样就很难避免部分人用“人类特征将机器人人格化”。像人权权利的扩张延伸出动物爱好者对“动物权利”的主张一样,未来随着人们“移情”现象的出现,类似“机器人”权利主张也可能发展成为某种社会思潮。对于政府治理而言,避免人们对“语伴”支持的过度依赖,可能是需要提前布局的。基于ChatGPT的陪伴机器人产业化和社会人文精神、互助精神的培育应该同步。充满矛盾和友谊的人与人互动世界才是真实世界,过度虚拟化可能对人类社会关系造成一定冲击。
三、“智慧体”隐喻视角
“智慧体”作为智能机器人的一种“隐喻”在科幻、理论和实践界业已引起人们的较多讨论。机器人是否有意识、机器人是否会背叛人类、机器人是否能像人一样生活,在像“机器人管家”“我,机器人”等科幻影片中都有较为情景化的描述,自然也引起人们较多的关注。“ChatGPT-4”发布后不久斯坦福大学心理学家的“GPT-4逃跑计划”似乎也验证了其中有些观点。机器意识、人格等问题复杂高深,一时难以梳理清楚。但对ChatGPT而言,似乎可以从其与人类共有特征出发讨论其可能带来的影响。作为信息采集的感觉器官、信息传导的神经系统、信息处理的思维器官以及转化的效应器官共同构成人的信息系统。与之相类比,ChatGPT实际上相对于“信息处理系统”,而其余采集、效应系统的技术发展也日渐成熟,当信息输入、输出、处理和控制系统有效整合时,作为“智慧体”的ChatGPT影响可能相较于现在更值得引起担忧。
一是技术可以是被误用的。如果误用发生仅表现在“信息层面”,其应对策略可以通过信息素养提高加以缓冲。当“智慧体”在同时具备信息采集、信息传输、信息处理和生成以及效应器官时被误用,其影响势必大而难以控制。
二是技术不稳定(瑕疵)造成的影响。当“智慧体”同时集成人类信息系统的多种功能时,如何判断其行为是技术系统错误(瑕疵)所导致还是机器人“有意为之”,边界可能是不清楚的。当“智慧体”因技术不稳定(瑕疵)而出现偏离最初设定的行为时,容易使人产生其“独立”的感觉,有可能对社会关系造成的较大混乱。
三是责任分担问题。以ChatGPT为主导生成的内容和行为,其产生具有交互性,算法和源代码可能来自并非赢利的开源提供者,而且其利用了大规模互联网数据,那么谁将对最终结果负责。“智慧体”隐喻意味着ChatGPT获得有限的主体性,那么如何避免隐藏在“智慧体”背后人类主体的避责行为。类似问题已经引起而且也将持续引起学界的关注和讨论。
从“工具”到“语伴”再到“智慧体”,不同“隐喻”与技术发展的成熟度和应用场景的深化密切关联,其对人类社会和政府治理的意蕴也有所不同。通用人工智能的出现为生活世界的变迁开启无尽可能,对于政府而言,面向未来的敏捷、多元参与式治理的时代似乎也应该随之而来。
作者简介:李晓方,河海大学公共管理学院副教授,研究方向为数字政府治理;彭云,中国行政管理学会助理研究员。
后ChatGPT时代的政策智能前景展望
张楠 清华大学公共管理学院
2022年11月,人工智能实验室OpenAI发布对话式大型语言模型ChatGPT。作为基于生成式预训练(Generative Pre-Training,GPT)技术迭代发展而来的应用产品,ChatGPT以其出色的语义理解和知识表达能力惊艳全球。尤其在基于GPT-4内核的新一代产品面世后,其对多模态知识技能的理解和运用能力再次成为应用领域关注的焦点。而在人工智能领域内,以GPT为代表的大模型方向则更早为人所知,2020年5月发布的GPT-3在2021年即入围《麻省理工技术评论》(MIT Technology Review)评选的“十大突破性技术”,国家自然科学基金委官方英文刊物Fundamental Research当年也发表了我国领域专家对其技术特点的评介文章[1]。而ChatGPT这次“出圈”可能也将是大模型自然语言处理技术正式走向应用领域的里程碑。基于创新扩散规律,本文将这个深化应用阶段称为“后ChatGPT时代”。
在我国加快数字政府建设的背景下,ChatGPT的出现对人工智能技术进入我国各级政策决策过程有何影响?与新兴的政策智能研究方向间存在何种关系?又会催生哪些重要的交叉领域研究热点?本文试图基于前期研究积累和新近思考,提出一家之言,以期抛转引玉,引发相关问题的深入探讨。
一、ChatGPT代表的技术进步及对政策智能的影响
如果说大数据技术的发展所带来的政策决策过程中数据获取能力与分析能力的提升催生了政策信息学的诞生,那么人工智能技术开始体系化嵌入到政策分析则是政策信息学向政策智能跃迁的关键[2]。政策智能着眼于在挖掘数据和模型价值基础上寻求人工智能技术驱动的应用延展与方法提升。与日益复杂的公共管理与政策问题催生的政策信息学一脉相承[3],政策智能试图解决的也是管理学视角下新技术在政策决策过程中的应用问题,是通用人工智能如何更好地适用于公共管理与政策专业领域的问题。
ChatGPT所取得的技术进步是典型的通用人工智能进展。一方面,这对政策智能的理论探索和实践迭代无疑是宝贵的助力。目前,在公共管理与政策领域以自然语言处理技术为底层方法的研究大部分采用以专家知识修正无监督学习或以算力辅助有监督学习的路径,这些以融合无监督学习与有监督学习优势的半监督学习策略基本还处于GPT-1的阶段,规模效应带来的自然语言理解能力能够帮助政策决策者和研究者进行更复杂的海量文本知识提取;同时,新的交互方式也将极大降低政策推演研究的门槛,具有复杂参数、较长时间周期的政策推演有可能通过对话设置的方式借助GPT-4的强大处理能力实现。可以预期,在ChatGPT出现后政策智能研究的进展将提速。
另一方面,我们也必须认识到,展现某些方面强能力的ChatGPT与胜任特定领域专业工作的目标间还有一段路要走,政策智能研究将是加快这一进程的助推器。既有研究指出了前一代GPT技术存在的一些局限[1]:①作为以语料数据为主要输入的自然语言处理模型,ChatGPT在不同领域的表现存在差异性,会在部分问题上给出似是而非的答案。考虑到实际政策决策领域的容错性,进一步明确优劣势可能是应用的前提。②ChatGPT目前处理复杂冗长的专业语言结构还有所欠缺。简单依靠专业领域语料“喂食”可能不足以解决这些欠缺,这就不可避免地面临与公共管理领域既有知识体系对话的问题。③网络文本数据本身存在偏见和分歧,在当今网络政治观点极化的背景下,这样的分歧还在扩大。完全以语料为输入的人工智能产品可能无法调和这些观点,面对复杂的公共管理与政策问题,简单依靠声量权重或观点中和的计算可能依然有失偏颇,这也使得ChatGPT进入公共领域专业问题处理时并不令人放心。从目前已知资料来看,GPT-4主要仍然是在训练规模、多模态输入输出以及交互体验等方面有所突破,并未从根本解决上述问题。以下我们也尝试从政策智能研究的视角提出初步的解决思路和可能的研究热点。
二、政策多维解析:通用人工智能进入政策领域的钥匙
就像人类自身的优缺点一样,ChatGPT作为一个人工智能产品必然在不同方面有强弱差异,“文心一言”等大量国产类GPT大模型产品也同样会有侧重点差异,即使综合能力落后ChatGPT,也可能应用于特定领域政策决策过程中的某个环节,而找到合适的点位,需要对政策决策有细粒度、全方位的深刻理解。因此,基于大数据方法,从全局视图、粒度缩放、跨界关联等视角开展政策多维解析研究是实现通用人工智能技术进入公共管理与政策领域的重要一环。
公共政策研究多学科源流的基础,大数据管理环境多源异构的数据属性,政策信息学多方法融合的特征,复杂政策建模与计算多维度输入的需求,从不同角度彰显开展政策多维解析的重要意义。首先,公共政策的复杂性和多学科源流需要从不同维度、不同粒度进行深入政策解析;其次,大数据社会环境的发展与国家对大数据管理的重视为基于数据的政策多维解析提供了实现可能;再次,政策信息学和政策智能将通用人工智能导入专业领域的发展重心决定其将聚焦于政策多维解析;最后,政策推演模型构建和政策智能迭代发展需要根植于政策多维解析。
我们至少可以从两个大的轴向去理解政策解析的维度。一是关注政策决策的全流程。围绕政策议程设置、政策工具选择和政策执行实施初期的协商过程和敏捷治理迭代等不同阶段进行关键要素识别,探索各阶段针对差异化政策目标的关键要素,作为在不同节点引入差异化人工智能辅助的关键理论输入。二是关注政策主体的外延。政策问题的复杂度决定了政策分析必须突破单一政策影响考察论事逻辑,向原因层延伸到复杂政策环境要素的构建,向结果层延伸到经济、社会、文化、环境影响的刻画,使政策解析立体化。向度外延也有助于通用人工智能对海量知识处理能力的发挥。当然,在上述两个轴向之外,政策解析的维度也将随着应用的深入迭代丰富。
三、双向理论交互:新技术驱动学科范式迭代的进路
针对ChatGPT技术目前面临的后两点问题,则需要人工智能技术视角与公共管理理论视角进行深层次的迭代互动,从而真正产生和发展支持政策智能应用的科学研究范式演进。实际上,尽管大数据和人工智能研究者一直对领域知识引入抱有积极态度,但是由信息科学驱动的人工智能前沿应用与管理学在公共管理与公共政策领域已发展形成的既有理论间尚缺乏充分的深层次对话。从管理学视角看政策智能的发展亟待管理学理论基础视角的探索。这包括演化和建构两个维度。
演化维度重点在于重新审视人工智能时代的管理学基础理论。在当前的政策智能萌芽期,对于相关智能工具的理论输入不仅应是术语和篇章,还要关注核心基础设定(assumption)和适用场景(context)的变化,这是规律运行的前提。管理学研究者需要尝试审视和讨论若干管理学经典理论涉及的基础设定和适用范围,评估潜在变化对理论内涵、外延的影响。特别是重点关注政府管理者信息获取和处理能力有限性、政府与公众信息处理能力差异等设定变化后引发的理论冲击,尝试探索政策智能环境下公共政策与公共管理的关系演化。这对人工智能嵌入管理决策过程至关重要。
建构维度重点在于基于公共价值判断建构政策智能基本规则。面对当前观点极化的网络舆论环境,坚持公共政策的价值导向尤为重要。考虑公共政策领域的低容错性,必须尽可能避免类似“大数据杀熟”“困在算法里的外卖小哥”等商业领域智能算法应用的困境案例在公共政策领域重演。在西蒙的学说中,关于事实要素与价值要素的区别、政策问题和行政问题的区分、“手段-目的”框架等是建构政策智能理论的基础[4]。未来政策智能研究可能需要尝试打破传统公共管理视角对大数据、人工智能技术的“黑箱化”和价值理性、工具理性简单二元分析逻辑,人工智能技术在政策领域的应用逻辑是从决策价值判断中不断剥离重复性事务工作,在坚持决策中价值导向的前提下探索人机协同的混合政策智能决策模式。
四、学科交叉融合:应对技术变迁的发展趋势
人工智能的技术进展必将使其更广泛应用于政策决策领域。政策智能的研究某种程度上就是要做好这一过程的助推器。国家自然科学基金委于2022年设立的重大项目“政策智能理论与方法研究”仅仅是一个开始,相关研究的内涵与外延还有待进一步厘清。开展相关研究则需要秉承学科交叉融合的基本思路,用人工智能技术解决公共管理与政策学科固有的理论问题,引入公共管理与政策学科的理论知识指导政策智能的新思路与新架构形成。这个双向互动过程需要研究者走出舒适区,不断去挑战不同学科间的交汇点,解决不同维度的“中间层”问题。赫伯特·西蒙(Herbert Alexander Simon)同时对公共行政和人工智能的方向做出过开拓性贡献,而他开拓的这些领域仍有不断交汇和融合的空间。学科的细化和知识的专业性使当今每一个个体研究者很难成为“西蒙”,但通过不同学科研究者的协作,通过研究者与ChatGPT为代表的大模型自然语言处理技术工具的人机协作,我们仍有可能实现对多领域的知识贡献,从而应对新技术环境下的政策决策实践与相关学科发展需求。
作者简介:张楠,清华大学公共管理学院教授,清华大学计算社会科学与国家治理实验室副主任。
标签: #新一代信息技术大数据论文题目