算法时代的政府治理风险及其规制

(整期优先)网络出版时间:2024-06-07
/ 3

算法时代的政府治理风险及其规制

杨琳瑜

(中共漯河市委党校,河南 漯河,462000)

摘  要:算法嵌入政府治理、推动政府治理变革,已经成为公共行政的重要趋势之一。算法的技术负外部性为政府治理带来当风险是,算法偏见有损社会公平、算法黑箱模糊公共责、算法异化损害伦理价值、算法权力危及民众自主,从而削弱政府治理的正当性基础。以人本主义理念消解算法异化,以依法治理原则打破算法黑箱,以算法透明规则规范责任链条,让算法朝着满足人的需求、改进政府治理绩效的目标发展。

关键词:算法政府治理、风险、规制

现代人生活在算法时代,随着大数据、云计算、人工智能等技术的迅速发展,算法决策已经被广泛应用于行政执法、商业竞争、司法审判、社会征信等领域,算法社会正在到来。作为一种新事物,算法不仅是一项新技术,更是新的权力形态。其中,政府运用算法这一新兴的决策方式展开治理,为改良传统政府治理模式,全面优化政府的治理流程、治理精度、治理成效等提供了前所未有的机遇,也面临着算法歧视、算法权力滥用、算法责任分配不明等伦理、法治上的挑战。对算法时代当政府治理进行研究,识别算法在政府治理领域应用的关键性风险,完善相关制度规则,构建良好的数字治理生态,具有重要意义

一、算法推动政府治理变革

人工智能与政府治理交融于一定的社会历史条件下,这一条件既包括科技本身的发展水平和价值目标,也包含当时的社会政治利益和需求。随着新一代人工智能技术的发展和社会环境的转变,人类开始逐步迈入 “政府算法治理”的时代。

(一)算法时代的治理图景。算法的运算机理是用机器语言刻绘现实世界,对研究对象进行抽象的简化,建构出数学模型。它本质上是解决问题的一系列指令,是用系统的方法处理问题的一种策略机制。从本质上讲,人工智能是一种算法,人工智能革命最终还是算法革命,谁能推出最优的算法,谁就能在未来人工智能市场上抢占先机。算法新闻、算法经济、算法伦理、算法权威等新概念层出不穷,算法成为新兴的力量,“算法即权力”的命题由此开始引人关注。从形式上看,算法归属于技术,将算法置于国家治理框架中,算法技术应属于国家治理体系的范畴。算法时代的到来,使得算法在个体行为约束和社会关系调节等方面发挥着越来越重要的作用,算法代码作为技术规范在国家治理中的影响力和控制力日渐增强,算法治理正逐渐成为一种新型的治理形态。作为人工智能技术运行基础的算法嵌入治理领域,会产生一种高度智能化和普遍化的治理形态。治理算法化是人工智能时代国家治理形态的算法转型,体现为社会治理中算法的“准主体”性、治理过程以算法规制为基础、社会公民成为算法数据网络的治理对象。以数据分析处理为基础的算法不仅成为国家治理工具,还推动国家权力往更广泛、更隐秘的空间渗透,形塑智能时代“算法政治”新形式。人工智能作为当下技术热点正成为国家治理现代化过程中的重要驱动力,其与公共行政的交互融合,促进政府治理向行政决策自动化与公共服务精准化方向转型,向世人描绘了一幅改进政府治理绩效、提高决策公正性的政府算法治理图景。

(二)算法时代的政府治理。在万物互联、计算无处不在的当下,政府利用算法进行数据挖掘、分析、诊断并预测,为政府治理提供参考或在某些领域自动作出行政决策,即算法嵌入政府治理现已成为潮流。从当前的研究来看,关于算法影响政府治理的研究呈现明显的“技术赋能”与“技术负外部性”两种路径。“技术赋能”论者认为,人工智能算法等技术的嵌入为政府治理带来“技术赋能”的效用,具有提高政府治理效率和效益的潜力,提供个性化的服务,提升社会治理水平,重塑政府治理结构以及促进政府治理模式创新,进而生成智慧社会下新的政府形态。与之相对,“技术负外部性”论者关注人工智能算法的负面影响,算法“黑箱”导致不透明,算法加剧人类决策的歧视性,技术异化导致“技术利维坦”“算法利维坦”等,因此社会各界对算法的广泛应用非常警惕,提出要对算法进行规制。事实上,“技术赋能”承认算法对于政府治理的正外部性,即从效率、效益角度强调算法以远胜于人脑的技术优势赋能公共组织,更好实现公共福祉。而承认算法在政府治理中的负外部性,更多是看到了算法的权力内核,强调公共部门要秉持公共性,旨在从价值层面强调公共价值的重要意义。可见,无论是从效率角度还是从价值层面来说,算法的正负外部性是一体两面的,统一于公共价值实现。本文聚焦算法时代政府治理面临的风险与挑战,以期探索规避算法嵌入政府治理的实践进路。

二、算法时代政府治理面临的风险挑战

随着算法的迭代和日益广泛的应用,算法的“技术负外部性”开始受到学者的认真检视。一些学者认为算法的“技术负外部性”对社会形成了重大冲击,挑战了法律的基本原则,造成了不利的法律后果,削弱政府治理的正当性基础。

(一)算法偏见有损社会公平。算法的设计目的、模型选择、数据使用以及算法最终的使用范围,都是算法设计者、开发者、使用者的主观选择。相关主体可能将自身持有的偏见嵌入算法系统,并借助算法技术,将价值偏见进一步加深或固化。受到设计者所处社会地位、价值观念、社会经历等因素的潜在影响,设计者将其主观判断置入算法中,以个人判断替代集体判断,这种以偏概全的植入行动,不仅损害个人正当利益,还造成对社会公共利益的侵犯。当算法嵌入政府治理,看似公正的代码却因其隐藏的歧视而有损社会公平。偏见来源于规则不公平。所谓偏见是指人的认知偏向性,妨碍人对社会信息进行正确判断的负面态度,在现实中偏见容易受到信息不充分的影响。算法具有高度专业性,其话语权掌握在专业人员手中,而普通民众在信息与技术等层面处于劣势地位,甚至存在被边缘化风险。在嵌入政府治理中时,算法复杂性抬高了普通公众的认知成本,普通民众很少有人知道何为算法及其运行逻辑,因此技术专家、研发企业巧用话语,弱化了社会公平,本应服务于社会公众的算法“将人类挤出就业市场,财富和权力可能会集中在拥有强大算法的极少数精英手中,造成前所未有的社会及政治不平等”。

(二)算法黑箱模糊公共责任。作为公共行政的核心,“责任”构成了治理过程的基础。人工智能的深度嵌入使得人与人之间以及人与机器之间的关联度和依赖性不断增强,政府治理活动面临着责任的日益复杂化与模糊化。算法技术稳定运行首先需要海量大数据作支撑,其次需要强大的 数据处理能力作保障,还要整合相关数据信息,依据运算规则在各信息要素间精准建立正确的相关关系,最后结合预先设定的运算法则输出决策结 果,以此辅助公共决策。算法发挥作用的机制,由于算法技术能够进行主动学习和预测,因而即使是最杰出的算法工程师也只能知道最初设定的算法程序,无法完全清楚从输入数据到产出决策间的程序机制,这就导致了“算 法黑箱”。当算法模型为公共部门提供了错误的决策判断,公共部门又依据算法指示不假思索地执行时,必定会对社会各领域造成一系列负面影响。有了“算法黑箱”的存在,当公共部门决策出现失误,公权力主体能够将责任推诿于提供算法的私人主体,而私主体又能以“黑箱”作为理由逃避审查、敷衍塞责。如此一来,不断延伸的卸责链条导致问责高高举起又轻轻放下,好似没有任何一方权力主体应该为算法导致的公共决策失误买单。因此,由于“算法黑箱”的客观存在,当政府治理逐渐依赖算法技术如何对决策选择后果进行责任界定以及如何对决策选择行为追责问责,成为亟待解决的现实问题。

(三)算法异化损害伦理价值。随着算法主动性增强,技术异化日渐成为政府开展技术治理的核心议题。将算法植入行政管理,也面临异化的风险。在政府治理领域并不存在一个事先可以确定的价值排序,这也就意味着价值冲突的权衡是一种事后权衡,并不存在某种绝对优先的价值选择,治理者需要在具体决策环境中对概念争议背后不同价值代表的成本、收益、政治考量等展开具体衡量之后才能作出价值抉择。但研究表明,算法的决策模型是无法处理这样的价值冲突的,由于算法的评分系统是一套事前建构的系统,其有先验的权衡标准,因而无法满足不断变动的价值权衡情境需求。一旦遇到和事先设定的治理情境不同的价值冲突,依照事先设定的权衡标准的算法便可能得出有违当前社会正义理念的治理决断。具有高自主性、高自学习、低人工干预的算法系统,甚至可以完全替代官僚决策,形成具备“类人”“类公务员”的主体地位。这意味着自上而下的官僚控制进一步强化,行政系统内部的个人价值被贬低,因此需高度警惕算法作用下出现“被困在系统的公务员”。利用算法技术,每个人所留下的各种数据都可以被分析、被画像、被量化评价,从而实现精准管理。如果超出有限领域和特定目的,将其拓展到个人相关的评价,可能引发对个人自由生活权利的侵蚀。

(四)算法权力危及民众自主。算法自动化以及不透明决策的特性会造成相对人不但无法参与决策过程,而且也无法获得决策结论的合理解释,因而政府运用算法展开治理面临着程序正义的拷问。技术鸿沟、算法黑箱以及算法自动化决策的特质,都决定了社会公众无法通过行使陈述、申辩、听证等程序性权利深度参与决策过程,获得决策理由,最终民众的基本程序性权利可能会沦为无用的摆设。相比其他技术,以代码为主的算法晦涩难懂,其解释权、话语权始终掌握在少数专家、研发企业之手,而政府日益倚重算法,面对治理压力甚至将部分权限让渡给专家或企业,正是借助其技术优势,技术精英与核心企业更易接近政治权力中心,俘获政治权力。当公权力被商业利益俘获后,相关算法决策的出发点将不再是以公共利益为主导,相应的算法决策结论也就失去了正当性和可靠性,进而可能引发公众对政府治理的信任危机。算法嵌入政府治理的范围拓展至各方面,公共领域的个人隐私疆界也随之拓展,算法运行背后强力的数据爬取和分析让个人在人工智能面前如同“赤身裸体”。为获取治理运行的个人数据,政府需借助一定的工具与方法,然而,囿于监管制度不健全、数据采集技术不成熟、数据采集程序不当与存储不安全等原因,个人核心数据容易遭到泄露、篡改、滥用,以致个人隐私危机四伏。

三、算法时代政府治理风险的规制路径

防范算法时代的政府治理风险,要通过将技术、伦理、法治手段相结合的方式,推动算法技术进步,加强对算法设计与应用的立法规制与监管,为政府治理智慧化、现代化转型目标的实现保驾护航,让算法朝着满足人的需求、改进政府治理绩效的目标发展。

(一)以人本主义理念消解算法异化。要在算法技术嵌入政府治理的整体性过程中时刻坚持“人类中心主义”的价值准绳,坚持人本主义治理理念。要坚持构建以人民为中心的行政价值观,将满足人民美好生活需要以及实现人的自由全面发展作为智能技术嵌入治理的价值准则,从而克服对智能技术依赖造成的自主性减损。要始终坚持公共管理者在政府治理中的主导地位,不断强化政府治理场域中“人机协同发展”理念。在政府治理中更要发挥技术优势,把机器擅长的交由机器,并适时对其加以约束和规制,在防止技术僭越的同时促进技术自身不断发展完善,以人类价值理性驱动算法技术理性发展。要避免“一刀切”的数字化转型,针对老年人、残疾人等技术弱势群体也要保留人工服务窗口,以满足不同社会群体多元化的公共服务需求,切实增进人民群众的幸福感和获得感。同时,持续创新数字化公共服务供给模式,充分发挥算法技术对信息聚集的优势,引导社会公众通过自下而上的参与机制充分表达自身需求,保障群众知情权并自觉接受群众的监督,增进政府与人民间的信任,促进“数字红利”更充分涌流。要以提升公众的算法素养,让受过良好相应教育的公众理解算法可能会导致不公平的结果,更多披露由人工代理人辅助的决策和行动,把算法素养与算法决策清单的透明度相结合,从而帮助公众有能力参与算法的使用、建构和监督工作。加强人工智能行业的伦理与规范,建立和规范算法研发与数据采集从业人员的伦理培训,强化他们的道德自律。

(二)以依法治理原则打破算法黑箱。算法嵌入政府治理场景的无限性与规制性法律制度的有限性之间的矛盾,则决定了以法治原则控制政府权力依然是不二选择。在算法立法上,欧盟无疑走在前列,而且是最严格的。2018525日生效的欧盟《统一数据保护条例》( GDRR),进一步强化了对自然人数据的保护。它将个人敏感数据排除在人工智能的自动化决定之外,要求增加数据使用者在个人数据收集时的透明度。这为我们提供了重要的参考借鉴。要加强算法当立法供给,加强政府算法安全治理与人工智能领域的立法,以主体的动态利益关系来确认权利配置,及时协调各主体的职责、权益关系,以提升政企间算法共享水平和促进不同主体之间数据资源的交换和流动,应明确要求商业资本向社会公开算法设计理念、数据信息来源、数据筛选机制等内容,同时要求提供算法技术的平台对公众提出的质疑进行及时解释和回应,打破“算法黑箱”,保障算法机制公平正义。同时,政府部门也有义务在要求算法公开的同时保守技术公司商业机密,允许其在豁免公开算法范围内的有限例外。

(三)以算法透明规则规范责任链条。由政府主导建立总体治理框架,明确政府对算法治理的主体责任,从促进算法数据公开透明、算法运作逻辑公正客观、算法作用主体一视同仁等方面建立全流程风险防控机制;同时,综合运用多元化规制工具,比如算法影响评估、算法审计等,对算法自动化决策的全流程进行二次分析检视,及时识别和纠正自动化决策产生的 漏洞,规避算法技术可能为政府治理带来的风险挑战。建立算法应用清单制度,明确哪些政府治理领域可以完全交给算法决策,哪些领域需要采取人机交互、合作的方式展开治理,哪些领域则应当禁止采取算法决策。建构监督审查机制,及时发现、全面预防、有效规制算法嵌入政府治理权力异化相关风险,完善人工智能算法决策监管制度的前提和基础,积极发展和利用能够检测、预防算法决策相关风险的技术手段,从而通过“以技术治理技术”“以算法监督算法”的方式保障用于政府治理的算法的可信赖性。完善算法解释制度,算法解释既应当包含数据的分类方式、数据加权的比例等内容,还应当包含算法设计的目的、算法的容错率及纠错方案、算法遵循的价值原则、算法建构及验证记录等信息,还应当算法解释的程序。建立完善的算法救济机制,通过建立健全人工干预和用户自主选择机制、畅通沟通反馈渠道,行政机关进行自动化决策,应当获得行政裁量相关利益关系人的同意,同时向个人提供关于自动化决策的便捷拒绝方式。对个人权益有重大影响的自动化决策,当事人有权要求人工复核或相关说明。在算法设计、算法部署、算法评价等环节,广泛吸纳公众参与,根据公众反馈意见及时调整算法规则。建立线上线下多种形式的反馈渠道,对发现的重大风险问题及时开展救济或紧急停止算法应用。构建算法研发者、数据科学家与应用领域专业技术人员之间的合作,以公共行政辅助决策算法开发为例,引入学有专长的公共行政专家、一线公务人员,他们的专业知识与实践经验有助于提高对潜在的各类问题的敏感性,帮助算法工程师选择更为科学合理的设计方案。

参考文献:

[1]昌诚张毅王启飞.面向公共价值创造的算法治理与算法规制[J].中国行政管理2022(10):12-20.

[2]周晓丽姬晓暄.算法嵌入政府治理:逻辑、风险与规制[J].西安交通大学学报(社会科学版)2024(1):52-61.

[3]张爱军李圆.人工智能时代的算法权力:逻辑、风险及规制[J].河海大学学报(哲学社会科学版)201921(06):18-24109.

[4]陈锐王文玉.算法嵌入政府治理的权力异化风险及其规制方案[J].理论探索2022(6):81-90.

[5]王文玉.算法嵌入政府治理的优势、挑战与法律规制[J].华中科技大学学报(社会科学版)2021(4):26-36.

[6]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版)2018(6):27-38.

作者简介:杨琳瑜(1981河南漯河人,漯河市委党校,讲师。研究方向:信息科学,互联网治理