龙空技术网

王丽熔|生成式AI下的算法备案:功能定位、现实困境与优化路径

澎湃新闻客户端 24

前言:

而今我们对“网络的基本功能可以分为”大概比较讲究,小伙伴们都想要学习一些“网络的基本功能可以分为”的相关资讯。那么小编也在网摘上汇集了一些有关“网络的基本功能可以分为””的相关文章,希望我们能喜欢,小伙伴们一起来学习一下吧!

原创 王丽熔 上海市法学会 东方法学

生成式人工智能的深度应用引发了“算法泛在”现象,尤其表现在算法解释风险、算法透明风险以及算法问责风险等。作为算法应用与行政治理结合的典型,算法备案能够实现算法创新与安全的有效兼容,并创新企业合法模式及推动行政问责的转型。然而,生成式人工智能下算法备案仍然面临法律属性存疑、算法备案范围混乱、算法备案信息公开不足等困境。基于此,当前应明确行政告知式算法备案的属性证成,并立足分级分类视角,理清算法备案范围与内容;同时,强化算法备案信息公开,进而推进生成式人工智能的算法治理体系完善。

一、引言

2021年4月,欧盟发布《制定关于人工智能的统一规则》中规定了人工智能的算法备案义务。2021年9月17日国家互联网信息办公室等部门关于印发《关于加强互联网信息服务算法综合治理的指导意见》的通知,其中明确“建立算法备案制度……健全算法分级分类体系”。2022年3月1日施行的《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)首次将算法备案内容予以列举,并且规定备案、检查、评估为算法监督管理体系中的重要部分——“三剑客”。2023年,《互联网信息服务深度合成管理规定》以及《生成式人工智能服务管理暂行办法》明确“具有舆论属性或者社会动员能力的深度合成服务提供者”,应当履行相应的备案手续。然而,虽然我国已经关注算法备案的重要性,并尝试在立法与政策文本进行规则构建,但原则化的阐述无法为日益增加的算法备案需求提供有效指引,亟待对其法律属性与备案机制进行廓清。基于此,本文试图在明确算法备案法律属性的前提下,梳理生成式人工智能算法备案规则,以期对算法治理有所裨益。

二、生成式人工智能下的算法风险

与传统人工智能不同的是,生成式人工智能的开发者并非在封闭的任务场域内预先设定所有的规则从而制定出特定规则算法,而是基于大规模数据库训练基础上,在深度学习后,根据不同情况从而输出对应的结果。生成式人工智能在给人类生活带来众多便利的同时,不可避免地对法律规制带来了诸多挑战,由于其本身仍存在尚未解决的“黑箱”等问题,其所带来的算法解释、算法透明、算法问责等风险尤为明显。

(一)

算法解释风险

一方面,商业秘密及算法逻辑等问题对算法解释的限制。在实践中,美国法院认可了算法的商业保护模式,同时技术信息掌握者经常以商业秘密为由拒绝进行算法解释。例如,销售COMPAS智能风险评估系统的Northpointe公司为实现营利目的,以商业秘密为由拒绝披露自动化算法对服刑期间表现良好、符合假释条件的Rodriguez作出“高风险”评估的决策过程。由于算法将大数据进行加工处理并将算法实施思想贯穿算法建模始终,使之成为营利资本及商业财富,进而该算法具备了商业秘密的属性。生成式人工智能迅速发展时代,通过商业秘密来保护算法虽有利于防止他人侵权、保证企业自身的竞争优势、提高市场创新积极性,但是会进一步削弱公众的信息获取权、无法保障用户的知情权,加上算法逻辑知识的专业性,公众经常会无法意识到权益被侵害,以至于产生不利后果后无法进行法律归责、维权艰难。

另一方面,个人信息保护法虽针对上述困境提出了算法解释权,但仍存在标准模糊、适用性存疑等问题。一是个人信息保护法第24条中提及的“重大影响的决定”暂无明确判定标准,就如何把握“重大影响”内涵存疑,虽然《信息安全技术个人信息安全影响》中指出从四个维度对个人权益影响的程度进行评估,但也只有宣示性的指引作用,并没有强制约束力。二是行使算法解释权的时间点、程度未有清晰明确的规定。学界现对事前解释或事后解释的时间观点尚未统一,有学者认为经过深度学习的算法决策具有不可解释性,所以事后解释没有意义;有学者认为应进行事前解释,事前解释可为可能带来的重大影响做准备;还有学者认为可以事后解释,要求解释主体解释具体的自动化决策。由于算法解释的程度也未有明确规定,存在基本逻辑的解释与深度代码公开解释等争议。且算法的更新速度较快,若每次更新都需要解释则增加了解释的难度,同时需要考虑到非专业人士对于算法逻辑的理解度,所以算法解释中适用何种解释仍未可知。

(二)

算法透明风险

生成式人工智能在利用大数据运行的过程中,由于“黑箱”等其他不确定因素的存在,导致公开透明原则无法得到有效贯彻,进一步加剧了信息泄露、渗透价值观、歧视等负面效应。生成式人工智能的算法推荐服务提供者因其手握大规模数据,使其身处掌控者的状态,其可以通过占有信息、数据等获取更多的资本利益,甚至会形成数据垄断,进而涌现歧视、偏见、不平等等损害公众利益的现象。然而,当生成式人工智能自动化作出了下一个指令,在算法不透明、信息不对称的情况下,数据个体作为弱势一方则被排除在外,只能被动接受结果。即便后期被侵权主体主张损害赔偿,也难以弥补未能事先预防导致的严重损失。更何况,由于算法透明机制尚未完善,责任主体尚未完全明确,导致被侵权主体取证困难、维权成本加大。

与此同时,生成式人工智能中充斥着各类虚假信息,智能生成内容具有滞后性、错误性、幻觉性,由于用于训练的数据库中存在虚假失真信息,则生成的内容必然不会是正确真实的,由此输出的错误失真信息再次被用于模型训练,从而进一步降低智能系统所输出的信息质量,甚至会导致模型的退化和崩溃。然而,由于算法未能有效透明,公众受限于自身知识、信息面等原因很难区分智能生成内容的真假,进而可能致使公众作出错误的决策。

(三)

算法问责风险

生成式人工智能是在大规模数据基础上,深度学习训练,从而生成下一个指令内容,具有深度学习性、自主性,甚至可能存在自我革新以至于背离了开发者的原本目的与预期结果。如果一味地仅强调算法自动性,则加大了风险的程度以及问责的难度。在现有的法律体系框架下,算法侵权的认定标准尚未形成独立体系。目前,我国算法问责仍依赖于行政方面,但行政主体往往存在滞后性且难以对个体权益实施救济。算法侵权应属民事纠纷案件范围内,民法典中规定一般侵权责任的构成要件分别为损害事实、侵害行为、因果关系及行为人的过错,归责原则分为过错责任原则、无过错责任原则、公平补偿原则。而在目前司法实践中,尚无统一的算法侵权归责原则适用标准,责任主体及责任分配也未有明确清晰的规定。

首先,算法中充斥着开发者及运营者的决策及管理。比如,在一开始的算法设计中即加入了算法开发者的价值偏向和利益算计。在算法运行的过程中,虽存在“黑箱”等不稳定因素,但不难发现其中有着人为管理、干预情形,且算法服务提供者对算法模型、算法逻辑的选择均体现了算法的可控性、人为性。算法服务提供者并非一般职业者,其应作为特定职业者具备较高的注意义务。现今,算法责任严格化与主观评判规范化是两大趋势,而目前我国司法实践中就算法侵权责任承担的主体是否包含开发者、运营者、用户、第三方,就如何分配责任承担,均未有明确清晰的规定。

其次,算法的基础是数据,数据是算法作出自动化决策的决定性因素。数据来源准确真实、数据是否存在偏向性等等均影响算法深度学习过程中下一步指令的走向。算法系根据开发者的要求进行设计,其中包含了开发者的个人理念、价值观、目标选择。在算法设计至运营的过程中,算法服务提供者应履行与风险相对应的安全保障义务。在以上过程中若出现数据瑕疵、设计瑕疵、安全保障瑕疵等问题,且因此产生了侵权事实、损害后果,此间因果关系的认定以及参与度比例均对算法问责起到关键性的作用,但目前司法实践中对此尚未有明确清晰的规定。

最后,民法典就一般侵权责任的规定中要求被侵权者承担证明侵权人存在主观过错的责任。但是,由于算法的商业秘密属性等,被侵权者作为信息弱方存在举证不能的风险。显然,算法问责不应适用一般侵权责任,但特殊侵权责任属于法定的侵权责任,当前尚无对算法侵权责任明确清晰的规定。

三、算法备案应对生成式人工智能算法风险的价值

算法法律规制的本质是算法风险防范与算法设计应用之间复杂的价值平衡。针对生成式人工智能下算法解释、透明、问责风险,良好的风险防范机制有利于生成式人工智能的有序健康成长。无论是从算法创新与安全的再平衡,还是创新企业合法模式,抑或行政问责的转型的角度,均凸显了算法备案在应对生成式人工智能下算法风险的价值。

(一)

算法创新与安全的有效兼容

一方面,提高算法透明度的支持者认为,公开算法代码并不会对平台企业造成重大负面影响,反而会让公众了解算法自动化决策的基本逻辑与可能的不利后果,进而予以规避或救济。另一方面,反对者则认为公开算法代码或数据得不偿失。一是,公开算法代码等信息,可能存在费心费力的劳动成果被抄袭的风险,进一步降低竞争优势、降低创新的积极性;二是,为他人不当制造规避或“戏耍”算法的机会。当算法原理被公开后,公众会利用该算法原理得到自己制作的伪信息,降低算法应有的效能;三是算法公开会导致个人信息泄漏及个人安全危机。在算法公开时,若涉及数据信息公开,则可能会导致个人数据的被公开,从而产生个人权益被侵害的不良后果。

不难发现,在算法创新与安全寻得平衡点尤为重要。而算法备案制度可在保证算法持续性创新的基础上,兼具提升算法安全性的优势。例如,因为公众受限于知识壁垒,所以不需公开算法源代码等算法核心技术,应备案公开内容包含算法所涉主体、责任主体、风险评估、预训练的次数以及结果、风险备选方案等,提升算法解释度,从而保障算法的透明,做到算法创新与安全的有效兼容,促进生成式人工智能的健康良性发展。

(二)

创新企业合法模式

传统的企业合法模式是指企业为实现自身利益的最大化,在进行业务管理和财务管理时进行的一种风险防控机制。目前,我国对生成式人工智能企业的规制仍主要基于行政或刑事方面的惩处。实践中,因为企业的违法违规行为所造成的社会风险远超过其自身承受能力,尽管在事后予以高额的行政处罚或刑事惩处,但并未能够从源头减少企业的违法行为,也无法弥补所造成的严重后果和损失。在生成式人工智能技术效能爆发式增长背景下,算法的多重风险日益上升,行政监管陷入治理经验滞后、治理能力匮乏的困境中,传统的企业合法模式已不足以应对各类算法问题的需求。

算法备案制度是企业合法的创新模式,企业可在保护商业秘密、提升竞争力的同时对违法风险进行有效防范。一方面,企业通过设立正面企业形象(如较强的社会责任感)的方式来获得消费者的认可并吸引更多的投资者,进而达到自身可持续性运营及扩大市场版图的目的。而算法备案制度强调的就是企业承担相应的社会责任,自我规制、自我约束、自我监督。另一方面,由于算法技术的专业性、隐蔽性,易造成算法权利滥用、算法歧视、信息泄露等风险,而且算法风险很难在萌芽时被外部监管机构识别。此时,生成式人工智能企业应发挥其作为算法信息掌控者所具有的地位优势,在监管部门的鼓励引导下主动参与算法治理、自我规制,进行算法解释、算法公开,积极做到算法的事前防范、事中评估、事后处理,防止算法滥用,降低算法风险,有效促进企业良性健康有序发展。

(三)

行政问责的转型

行政问责是行政机关工作人员承担否定性后果的治理机制,其内容中包含道德、政治、行政、法律等责任。行政问责可分为同体问责和异体问责,同体问责是指系统内部的问责,异体问责是外部系统对行政机关及成员的问责。在传统行政问责制度中,呈现出同体问责较多、异体问责薄弱的景象。在实践中,虽中央及各地方均出台关于行政问责的相关文件,但由于党政、不同部门、部门上下级之间存在职能交叉、职责不明确等问题,并且受制于严格的等级约束及程序规范,再加上行政主体的自由裁量权过多,极易出现权力滥用或程序违规等严重现象,往往难以真正问责。将算法技术引入行政问责是实现精准问责的必然趋势。传统“金字塔式”行政问责模式中存在过于依赖高层、“塔尖”权力过大、对外界环境反应较慢等弊端。算法技术可以精准记录行政决策、行政问责等行使权力的各种轨迹,且具有不能修改、易保存、时间长等特征,可有力约束行政主体在行使权力的自由裁量权。引入算法技术将有利于促进行政扁平化问责转型,避免发生因职责不清而导致的互相推诿现象,提高精准问责的效率,保证问责信息公开的准确性和可靠性,增强精准问责的执行力度。

四、生成式人工智能下算法备案的困境检视

《生成式人工智能服务管理暂行办法》第17条中规定了生成式人工智能需按照《算法推荐管理规定》进行算法备案。然而,生成式人工智能下算法备案尚未形成完整有效的体系,仍存在法律属性存疑、备案范围混乱、信息公开不足等问题。

(一)

算法备案法律属性存疑

算法备案作为新一代人工智能飞速发展背景下治理和监管的有效方式,已被广泛关注和采用。生成式人工智能下的算法备案是指,有关部门或行业组织为有序有效治理和监管,依法要求算法推荐服务提供者报送算法有关信息,并将信息进行收集、存档、对外公示的行为。根据备案形式、审查形式的不同,从行政行为的角度,可分为“行政许可式”备案、“行政确认式”备案、“行政告知式”备案。

1.“行政许可式”备案

“行政许可式”备案是指行政机关事先对备案材料进行实质性审查,若行为人未完成履行备案手续将无法获得从事某项活动的资质。行政许可是指行政相对人在事先获得相关行政部门的许可后才能从事特定活动的行政行为,其特征为事前预防、实质审查。

在实践中,不少事项虽说是备案但实际上仍为行政许可,受理人会对相对人提交的材料进行实质性审查,或是受理人对相对人提供材料的真实性合法性进行审查,通过后才予以备案。例如,矿产资源储量评审备案事项、卫星导航定位基准站建设备案等均有专家审查程序。以及境外投资项目备案、赴境外加工光盘进口备案、进出口货物减免税备案、铀矿山企业消防设计备案等事项中,行为内容、对相对人权益的影响以及实施程序看,性质上均属于行政许可。2022年施行的《国务院办公厅关于全面实行行政许可事项清单管理的通知》,其中第9条规定:“有关行政机关和其他具有管理公共事务职能的组织以备案、证明、目录、计划、规划、指定、认证、年检等名义,要求行政相对人经申请获批后方可从事特定活动的,应当认定为变相许可。”该规定明确指出虽以备案为名义但仍要求审批的应认定为变相许可。可见,“行政许可式”备案本质上是行政许可行为,即能够直接产生法律效果,赋予相对人特殊的权利资格。

2.“行政确认式”备案

“行政确认式”备案是指行政主体对相对人的备案材料进行审查是否真实、可靠,进而作出是否确认的行政行为。行政确认是行政主体依法对行政相对人的法律地位、法律关系或者有关法律事实进行甄别,给予确定、认可、证明(或者否定)并予以宣告的具体行政行为。行政确认强调解决权属争议等法律事实,其通过对各行为、事实予以甄别,从而结束不明确的状态。行政确认需要经过检查、调查、检验等步骤从而来确认是否达到可确认的条件。对于技术性较强的事项,如对产品需要辨别真伪、检验质量规格等,则需要经过相应的检验程序,才能得出相应的结论,从而作出确认的行为。行政确认不仅包含客观性的问题,同时也具有运用职权和适用法律作出结论的主观性。行政确认对于行政主体而言是一种行政管理手段,对于行政相对人而言是社会个体请求国家公权力保护、公权力救济的依据。如,商标使用许可合同备案,是对事实存在与否进行的确认,目的是维护交易安全。综上,“行政确认式”备案在内容上具有中立性,未创设权利义务,系行政确认的一种。

3.“行政告知式”备案

行政告知是指行政主体在行使行政职权过程中,将行政行为通过法定程序向行政相对人公开展示,以使行政相对人知悉该行政行为的一种程序性法律行为。从法律效果看,“行政告知式”备案本身并没有直接影响行政相对人的权利义务关系,不具有创设审批或许可的权力。“行政告知式”备案中,受理人对备案材料主要实行程序审查、形式审查,目的是尽量全面地收集各算法主体的信息,以便事中事后监管。其优点为“营造双方平等对话的空间”,保护相对人的利息,降低权力机关对相对人的干预程序,保证相对人自由的选择权,从而有利于激发市场的活力、提高行政效能。行政处罚法第四十四条规定了行政机关在作出行政处罚决定之前应履行相应的告知义务。此为事前告知,充分给予公众对自身利息相关的活动及时作出反应,保障公众的知情权、申辩权、听证权等。

为限制并化解行政审批权力,推进服务型政府建设,诞生了告知承诺制,中央及各地方均出台文件全面推进告知承诺制。《南京市行政审批告知承诺暂行办法》第7条规定,告知承诺的审批事项应实行清单管理制度,由行政机关负责研究确定并向社会公布。此告知行为应归入行政事实行为中,不会对社会公众产生不利影响,更多的是保障了社会公众的知情权,但对相对人来说,若公示的内容为其承诺的内容,则该告知行为也会对其起到约束、监管作用。《甘肃省政务服务事项告知承诺制实施办法》第18条规定,对在核查或者日常监管中发现承诺不实的,政务服务机构应当依法终止办理、责令限期整改、撤销行政决定或者予以行政处罚,并纳入信用记录;涉嫌犯罪的,依法移送司法机关。

此处告知行为应归入事中事后行政检查、行政法律行为,该行为具备处罚制裁功能,目的是规范并纠正虚假承诺等错误行为,以便更好地维持社会秩序。

(二)

算法备案范围混乱

当前,生成式人工智能下的算法备案制度在备案范围方面尚无系统细化的规定。

一方面,算法备案主体未明确。根据《生成式人工智能服务管理暂行办法》中算法备案主体范围限定为提供具有舆论属性或者社会动员能力的生成式人工智能服务的平台,如何理解“舆论属性或者社会动员能力”这一前置要件尚无明确定义,一般理解为只要对外发布供公众使用的算法均要备案,认为公司内部研发测试的算法不需要备案,但是生成式人工智能预训练是建立在大量数据的基础之上的,其中数据来源等相关风险尚未可知。

另一方面,算法备案内容泛化。目前,算法备案主要适用于算法推荐技术与深度合成技术,备案内容为算法主体信息、产品及功能信息、算法信息。根据互联网信息服务算法备案系统中填报手续显示,若产品的功能访问路径涉及多项导航则需一一填写,在算法详细属性中详细填写算法数据及模型,若有信息变化则需要根据《互联网信息服务算法备案系统使用手册》一一更换修改。需要说明的是算法备案的内容并非越多越好。算法备案仅对备案主体所提供的算法推荐服务及所涉算法进行备案,并不代表监管机构对该备案的内容或算法进行了认可,其目的是提高算法透明度及可解释性,推动健全算法问责制度,加强备案主体自律意识,以便信息个体准确行使自动化决策拒绝权。但算法备案内容的泛化、混乱,就现阶段算法备案信息公开主要还是以自愿为主、兼顾法律法规的明示要求的模式,备案主体基于保护商业秘密、顺利通过备案等目的,则会避重就轻,而监管主体仅需就备案材料进行形式审查,进而无法将算法安全主体责任、数据安全、信息保护等真正落实到位。即便《算法推荐管理规定》中规定了违反备案规定时会予以处罚,甚至追究刑事责任,但是因为备案信息泛化混乱,无法明确准确算法主体及相应具体责任,最后能否准确追责不得而知。

(三)

算法备案信息公开不足

算法信息公开的目的是推进算法问责机制的有序进行、提高算法的解释度和透明度、实现事中事后有效规制。根据国家互联网信息办公室发布第一批、第二批《境内深度合成服务算法备案清单》(以下简称《备案清单》)显示,公告的内容包括算法名称、角色、主体名称、应用产品、主要用途、备案编号。但是,基于生成式人工智能所依赖的数据库远大于传统人工智能的数据库基础,上述算法信息公开的内容远远不足。

首先,算法主体公开不足。因为算法主体不仅包括算法推荐服务提供者,也包括第三方接入平台。《备案清单》中角色为“服务技术支持者”的应用产品信息并未公开。而且已公开的算法主体是否为算法问责主体存疑。其次,算法数据库来源、主要用途未细化公开。因算法运行需要大量的数据,其来源若涉及个人信息或视频、图片则需要权利主体的同意或授权。《备案清单》中并未将数据来源信息、授权信息、获得授权的渠道进行公开。备案清单中主要用途均以少量的话进行笼统概括,不利于非专业人士理解其中的内容。而且自动化决策所依据的具体算法计算公式未公开。最后,算法技术标准未公开。算法在运行前需要进行一次以上的预训练且应达到一定的技术标准,其在备案时应提交安全评估及预训练等材料。算法技术标准虽根据不同的算法会有不同的技术标准,但可根据算法推荐技术与深度合成技术等予以细分出不同的技术标准,将备案算法是否符合对应技术标准予以信息公开。

五、生成式人工智能下算法备案的完善路径

当前,生成式人工智能下算法备案的实践落实仍有诸多优化空间。事实上,算法主体、监管部门、用户等均呼吁更为体系化、实操性的算法备案完善路径。基于此应明确分层式算法备案的属性证成,且在分级分类下明确算法备案范围、细化算法备案内容,同时强化算法备案信息公开。

(一)

行政告知式算法备案的属性证成

首先,算法备案不是行政许可式备案,因行政许可式备案系经过实质审核符合条件后才能从事有关算法的活动,违背了鼓励算法创造性发展的要求。其次,算法备案也不是行政确认式备案,行政确认式备案系对相对人提供的材料进行实质审查并核查无误后,最后作出对行为或事实法律上的确认。但算法备案并非如此,算法备案是通过信息搜集的方式以达到算法公开透明的目的,其并非为相对人创设许可或权利等。根据《算法推荐管理规定》第24条规定,算法推荐服务提供者需履行算法备案手续,若发生变更或终止服务,则应办理变更或注销备案手续;第25条规定了若收到的备案材料齐全则予以备案并进行公示,若材料不齐全则不予备案并告知理由;第31条规定了违反履行义务的处罚措施。从互联网信息服务算法备案系统中算法备案填报内容包含一项为《算法备案承诺书》。由此可知,算法备案是算法推荐服务提供者仅需要根据规定提供符合条件的备案材料,监管机构在形式审查无误后即予以备案并公示,应属行政告知式备案。通过行政告知式算法备案,可改变公众、监管机构、企业之间信息不对称局面,削弱企业的信息资源优势,防止算法权利滥用,有利于推动企业合法、自我约束。与此同时,行政告知式备案内含告知承诺,将算法备案所需要的信息及所需承担的责任等提前告知并要求算法服务提供者对其提供的信息(含对外公开信息)承诺真实,积极鼓励算法服务提供者备案及自我规制,在算法服务提供者与监管部门之间建立对等沟通渠道,促使双方之间良性互动,提升算法服务提供者备案、风险防范的监管效果。

综上,行政告知式算法备案是集信息公示、监督、制裁等为一体的行政行为,其旨在有效兼容算法创新及安全的基础上,收集算法信息并进行有效公开,保障公众的知情权,提升算法主体规范自律意识及规范自身行为,实现事前防范、事中事后监督。

(二)

分级分类下明确算法备案范围

在算法备案制度下,分类分级具有重要意义,意义在于提升算法备案可操作性、效率性的同时进一步推动科学监管、高效治理。实践中,分级分类下算法备案范围尚未形成较为统一的观点,亟待明确。一方面,根据算法技术特征进行分级分类。《算法推荐管理规定》中将算法推荐技术分为生成合成类、调度决策类、排序精选类、个性化推送类、检索过滤类等五类。个人信息保护法中规定敏感个人信息包括生物识别信息、宗教信仰信息、特定身份信息、医疗健康信息、金融账户信息、行踪轨迹信息,以及不满十四周岁未成年人信息等。《互联网平台分类分级指南(征求意见稿)》中根据平台的连接属性和主要功能对平台进行了分类,如根据平台连接对象及主要功能分为网络销售类平台、生活服务类平台、社交娱乐类平台等;另综合考虑用户范围、业务类型、经济体量以及限制能力进行分类,即超级平台、大型平台、中小平台。监管机构等部门可参考上述分级分类依据,基于各算法技术同类特征,进而明确算法备案范围。

另一方面,根据算法风险程度进行分级分类。欧盟的《人工智能法案(草案)》中以不可接受、高、低、极低等四类不同程序风险分别规制人工智能。美国的《算法问责法》中要求大型算法平台对自动化决策带来的信息隐私和安全风险以及因种族、宗教、政治信仰或性别等方面的差异而造成的算法歧视与偏见进行评估,并采取措施消除此类风险和歧视。我国《算法推荐管理规定》中第23条规定,建立算法分级分类安全管理制度,根据算法推荐服务的舆论属性或者处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理。以上立法与政策文本均通过风险程度划分级别,具有进一步参考适用的可行性与必要性。

(三)

细化算法备案内容

由于算法本身专业性、难解释的特性,为个体行使自动化决策拒绝权、算法解释权提供信息保障,提升个体、用户、第三方、监管者等对算法的信任度,目前算法备案内容亟待明确细化。首先,不同行业所涉及的算法备案存在较大差异,如互联网行业中涉及用户行为数据等采集和分析,金融行业涉及风险控制、投资决策方面的算法,医疗行业涉及疾病诊断、诊疗方案方面的算法,交通行业涉及智能交通管理、交通规划方面算法,能源行业涉及智能电网管理、能源预测方面的算法。由于各行业的专业性不同、所涉算法风险不同,故应针对不同行业不同算法区分细化算法备案的启动条件。

其次,目前就深度合成备案流程为填报主体信息、填报算法信息、填报关联产品及功能信息或填报技术服务方式等三步骤。在主体信息填报审核通过之后才能进行下一步骤。《算法推荐管理规定》仅规定了材料齐全的,网信部门应在30个工作日内予以备案。为节约申报主体的时间成本,应规定网信部门在收到申请后多久就需要答复申请人,并规定就不同问题不同答复方式以及不同具体内容。另外,目前仅可通过互联网信息服务算法备案系统平台提交备案申请,应设立多渠道进行备案材料传递,比如每周固定时间进行线下线上答疑、宣讲,或在官网设立问题答疑栏目进行一对一答疑,同时组织复杂程度较大或提交多次未能通过的备案进行线下材料提交,提高备案效率,提高算法服务提供者履行算法备案义务的积极性,鼓励算法服务提供者参与到算法治理中、实现自治。

最后,实践中,算法备案系统中就安全自评估报告及拟公示内容虽提供模板且列举出需填写的内容范围,但因算法备案申请者未能理解算法备案内容的规范要求,且基于保护商业秘密的考虑,填写信息亦未达到要求而多次被驳回。在算法备案流程中,需将算法备案内容的要求进行细化说明,让算法备案申请者参透理解从而正确填写备案信息。特别需要说明的是,因不同类型的算法存在内里逻辑、风险程度、特征、对公众影响等方面的不同,故应据此分别作出特别细化说明,引导算法备案主体填写信息准确、更好规制算法技术、提高算法行业自律。

(四)

强化算法备案信息公开

《算法推荐管理规定》规定,向备案机构提交的公开信息不同于需要对外公开的信息。根据备案清单显示,目前向公众的公开信息内容仅限于算法名称主体、产品、主要用途、备案编号等信息,且服务技术支持者对应的应用产品未公开。然则,公开信息不仅是算法透明的主要方式,也是算法解释的必要步骤之一。一方面,强化算法备案信息公开有利于保障公民的知情权,能够通过社会监督方式推动生成式人工智能的有序健康发展。另一方面,强化算法备案信息公开有利于增强对于算法责任主体的问责,避免算法责任主体利用“技术中立”“算法黑箱”“隐蔽性”等来规避自身的责任,保障被侵害主体的权利救济。

一是,以公众能够理解的程度来衡量算法备案公开信息标准。因算法通常表现为艰深的代码,具有极强的专业性,一般公众很难理解。为保障公众的知情权及算法解释权,算法备案主体应对自动化决策作出的具体公式、安全评估、风险防范等以通俗易懂方式表达,并对关键信息进行公开。

二是,算法公开具有时效性,应及时动态变更。随着算法技术自动化学习能力不断提升,算法可能会不断升级至更新迭代,此时的算法就不是原先公开的算法了。算法技术发展极快且具备隐蔽性,以至于算法主体察觉滞后,但若是因变化而随时备案则会增加成本,所以应定期分析当前备案信息是否能够覆盖已升级迭代的算法技术,若无法覆盖则应及时履行变更备案手续并公开新的算法备案信息。同时,监管机构也需定期进行审查审核。

三是,算法公开中应载明风险防范措施以及解决方案。算法所依赖的数据中若是含有歧视性、偏见性、虚假信息从而导致算法歧视、算法偏见、虚假决策,算法备案公开并不必然免除了算法责任主体的责任,其算法备案公开应作为对算法责任主体约束的手段之一,可将备案材料中相关的风险防范措施以及解决方案中关键性、公众最为关注的信息(不包含涉商业秘密的代码、规则信息等)予以公开,有利于公众行使监督权。

结语

生成式人工智能作为新一代人工智能给人类带来极大便利的同时,也给社会治理和监管带来了较大的挑战,算法备案制度作为新型创新的监管制度应运而生。当前要充分考虑到未来的不确定性,冷静观察未来生成式人工智能的发展趋势,探究生成式人工智能下算法备案应对风险治理监管的价值,通过明确行政告知式算法备案的属性证成,并在分级分类下明确算法备案范围,细化算法备案内容并强化算法备案信息公开,统筹兼顾算法创新与安全监管,激励企业合法、参与算法治理,建立健全新型算法治理监管体系,弥补目前生成式人工智能治理和监管存在的缺憾,助力生成式人工智能可持续创新、有序、良性、健康发展。

原标题:《王丽熔|生成式AI下的算法备案:功能定位、现实困境与优化路径》

阅读原文

来源:上海市法学会

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

标签: #网络的基本功能可以分为