前言:
此时姐妹们对“算法最新版”可能比较着重,各位老铁们都需要分析一些“算法最新版”的相关文章。那么小编也在网络上搜集了一些有关“算法最新版””的相关资讯,希望朋友们能喜欢,我们一起来了解一下吧!《算法治理:后人类时代的政治与法律》,[立陶宛]格纳斯·卡尔波卡斯著,邱遥堃译,上海人民出版社,2022年8月出版,220页,69.00元
进入算法时代
九零后的童年回忆大都不会缺少一部日本动画:《数码宝贝》。小时候谁不曾幻想也成为被选召的孩子,收获属于自己的神圣计划与数码宝贝,进入数码世界展开冒险,打败最终Boss,拯救数码世界与现实世界,正如后来幻想收到霍格沃茨的录取通知书一样。虽然当时的数字科技并不很发达,数码宝贝与数码世界的想象事实上不过是人工智能与虚拟世界想象的萌化版本,但人类与数码宝贝的关系、现实世界与数码世界的关系,仍然映射着人与技术之关系的永恒命题。如今人工智能技术已不断发展,能够战胜围棋世界冠军、创作艺术作品,编码我们作为消费者、生产者、公民的日常生活,并且日益具备深不可测的迥异于人类智能的自我学习能力,于是,这一人与技术如何共处的问题便越发具有重要性和启示意义。
由此观之,或许法学界对算法所享权利,以至于算法主体地位的讨论,并非那么未雨绸缪、杞人忧天。我们所担心的科技反乌托邦的可能性确实正在逐渐实体化,我们正在被迫进入一个与人工智能共存(如果不是受其统治)的时代。应当如何确保人工智能与算法为人类服务而非反之,如何控制其权力属性,防范其异化风险,甚至阻止其统治人类,便成为当代算法社会的核心议题。
但另一方面,我们又隐隐约约感觉到:虽然人工智能越来越自主、强大,但它们有时候仍然表现得像人工智障,无法处理连三岁小孩都能自如处置的问题。例如自动驾驶汽车的道路识别、自然语言处理的内容审核,都曾发生过令人啼笑皆非的故事。而且所谓的技术中立、AI自主,听起来更像是幕后操纵者用以逃避责任的说辞;算法黑箱与算法透明,则似乎主要取决于算法的设计者、所有者是否愿意将其公开。无知的大多数人虽然被迫看向洞穴墙壁上的阴影,但已经觉察到背后可能存在更广阔的世界与更明亮的光源。
退一万步说,如果算法确实过于复杂又风险太高,何不弃置不用?为何不等到充分了解它并对其具有全面控制能力以后再使用,何必操之过急?鉴于前述负面影响,不用算法的收益成本比率与使用算法的收益成本比率相比,并不当然显著更低。在人工智能发明以前的数千年,人类社会也稳步前进至今;人工智能也不是潘多拉的魔盒,打开了就无法关闭。何以至于早早开始忧虑机器人统治人类的未来,甚至在务实入世的法学学科掀起法律与科技,而非仅仅是法律与科幻的严肃讨论?
对此,立陶宛学者伊格纳斯·卡尔波卡斯的小书《算法治理:后人类时代的政治与法律》可以提供一味解药。他首先从算法所使用的数据、算法作为代码架构的直接规制、算法作为行为助推的间接规制这三方面入手,介绍了算法治理的技术原理,以体系化的理论理解整合了我们碎片化的经验认知。更进一步,他还以一种独特的后人类主义为框架,探讨算法对人类主体性、政治共同体建构、法治基本原则提出的挑战,使我们意识到自己与技术、环境之间永不停歇的交互作用,进而知晓究竟是何种力量在使用技术的过程中决定着我们的日常生活。最终,他提出的解决方案是:将普遍的爱,包括对代码的爱,作为恢复人文关怀、修复人机平衡、改善算法治理的出路,从而克服算法治理的功利化与工具化倾向,促进人类、技术与环境的平等关系,实现每个人自由而全面的发展。
算法时代的后人类性
卡尔波卡斯的后人类主义注意到了算法对人类主体性的消解:完整而独特的个人被分解、降格为数据的生产者、数据分析的作用对象,或更直白地说,一个数据包。
“一位友好的同事成为了一位服务提供者,一位长期诚信的客户成为了一位拥有高信用分数者,一位善良的护士成为了一位护理提供者,一位学者成为了一位有影响力的学人,一位运动爱好者成为了一位拥有动态绩效曲线者。”(178-179页)进而,我们要么在算法对代码架构的直接控制下,只能做出架构所允许的行为,要么在算法对行为的微妙助推下,做出自认为自主、实则受控制的“最佳”选择,仿佛巴甫洛夫的狗一样容易操纵。
甚至,算法的编写者也受制于技术过程的反馈,并非独立自主、从零开始地设计算法,而是根据算法运行的输出结果而不断调整完善。与此同时,线上与线下的治理逻辑趋于统一,万事万物都将成为算法的数据分析的对象,不再存在互联网、物联网以外的治理领域。于是人类的自由意志与主体地位不可挽回地丧失了,人类不能再宣称自己是这个世界的主人,反而沦为算法的仆从、技术的奴隶,人类与技术的平衡向技术方向高度倾斜。
然而不同于技术中心主义的投降论调,卡尔波卡斯在更为广泛的社会交互背景下认识到了人类对算法的影响,主张算法必然带有人类的价值观。而且,他将这一影响界定为先在的、根本的、决定性的,从而摆脱单向的技术决定论与虚伪的技术中立论,避免落入相对于人类中心主义的技术中心主义之极端。
在定义上,人工智能即是由人设定与制造的智能:简单的算法代码是个决策树,由人类为特定问题的全部细枝末节设定解决路径;复杂的机器学习也仍然需要人类提供数据,并为数据与结果之间的关联赋予意义。更何况,算法作为平台治理的工具,根本上反映了平台的利益与需求,故而有大数据杀熟与灵活用工剥削,甚至将算法作为独立法律主体看待的争论背后,也是平台希望免除自身责任的动力在暗中驱使。
所以,算法本身深深地嵌入了这个社会:“算法被设想为类似莫比乌斯环,既没有纯粹的内在,也没有纯粹的外在”(48页),“算法变得具有交互性,与其运行的更广泛的环境建立一种双向关系:从世界中学习,接着通过分类、排序和筛选反馈给世界,然后再从受其先前输出影响的世界中学习,继而进一步反馈”(49页)。人工智能并未统治世界,它仍然属于世界的一部分。
因此,卡尔波卡斯的后人类主义具有明显的平等主义色彩:人类与技术、环境之间不是你死我活的斗争与统治关系,不是要么西风压倒东风、要么东风压倒西风;人类主体地位的消退并非向技术投降,并非复刻人类中心主义而成为技术中心主义,而是真正开启了设想一种更为平等、包容、你中有我我中有你的伙伴关系的可能性。
作者有言:“正如人类将自然商品化并将其仅仅视为一种资源而必须最大限度地利用和优化一样,通过机器和代码对人类所进行的类似处理也是错误的。”(184页)事实上,贯穿数码宝贝系列动画的主题即是:人类控制、奴役数码宝贝固然不对,数码宝贝转而控制、奴役人类也并非真正的善,冤冤相报无穷尽也。甚至人类与数码宝贝彼此孤立、独善其身,也无法实现各自的终极进化与完善。人类与数码宝贝需要建立一种友爱的伙伴关系,携手进化;同样地,人类与技术需要在平等的基础上联合,才能使这个世界朝正确的方向前进,止于至善。
由此观之,当前人工智能发展所引发的技术中心主义的后人类思潮是误入歧途的。算法与人工智能并未强大到可以取得与人类平起平坐的主体地位,现实的侵权责任法、著作权法稍作解释或调整即足以应对自动驾驶、人工智能创作等提出的所谓新问题,只要穿透技术的迷雾,直指其实际的影响即可。毕竟,“无论数字(无身体或无实体)行动者是基于与自然人或法人的相同或相似基础而被赋予人格,还是被认定为介于两者之间的某种存在,或是被认定为从简单权利和义务(例如保险)发展到更复杂安排(例如产权)的实体,抑或是被认为根本没有明显的人格,它们的影响是不可否认的”(134-135页)。
具而言之,首先可从算法的输出结果入手,要求公平公正,避免偏见与歧视,不实行不合理的差别待遇,根据各种标准来划分算法歧视类型,进行分级分类治理。其次可从算法的输入数据入手,一方面要求数据控制者完善其自我治理机制,强化对用户的数据保护,另一方面赋予数据主体以免受算法自动化决策约束权等个人信息权利,以及由此延伸出的算法权利,增强个人对自身数据的支配与管理。最后辅以适当程度的算法透明,采取分场景、有层次的算法解释权,以及制度化的算法影响评估、算法备案等可行的算法透明措施。但是主张算法所享权利,乃至算法主体地位,则大可不必,这亦非法律的制定、执行与适用者所擅长。
如果已经到了不得不革命性立法的地步,人类的单边立法或许也不一定能够取得人工智能的同意,二者需要斗争或协商才能确定共同的未来何去何从。因此,这样一种技术中心主义的后人类思潮其实仍然是人类中心主义的回魂:依旧从人类出发,思考如何将人格赐予机器或防止人格被机器破坏,过分抬高、夸大技术的作用与地位,无视人的主观能动性。在这样的后人类思潮之下,主客体等级关系的幽魂不散,支配-依附的思维方式根深蒂固,只是颠倒了过来罢了。持此论调者无法设想人与技术皆从中心地位退出,卸下彼此不必要的特权,彼此更为平等、合作地相处,致力于共同的解放事业,正如动画中所想象的乌托邦一样。
后人类之上的超人类
然而,平等的后人类主义在揭示了宝贵的洞见同时,也遮蔽了更深刻的反思空间:算法/人工智能与人类/人类智能的关系真的是平等的吗?换个问法:被算法消解主体性的人类,与对算法具有决定性影响的人类,是同一拨人吗?或者更准确地说,被算法计算、管理、控制的人,与设计、拥有、控制算法的人,是同一拨人吗?如果不是,二者真的是平等的吗?
答案当然是否定的。算法治理的服务对象是平台经济及其背后的网络资本,它们决定了算法治理的目标、形式与结果,通过算法治理的技术赋权,以大多数人的后人类主义、去主体性状态为代价,成就了自身的超人类主义、超主体性状态。
即使算法治理在总体上提升了社会福利,并因此惠及被治理的普罗大众,这一后果也是次要的,平台盈利与资本增值作为算法治理的根本目的不会改变。这不仅体现在分配环节,平台资本攫取了新增社会总福利中的大部分,更体现在当平台利益与用户利益、社会利益发生冲突时,算法总是维护平台利益,例如在共享经济中对灵活用工者的劳动剥削。
更何况复杂的技术也有利于超人类实现隐身,将他们与后人类的社会矛盾转移、消解为后人类对技术的无知、无力与无可奈何。于是后人类只能责怪自己素质太低、不够努力、跟不上时代,或先进技术太神秘、太狡猾、太不近人情,超人类借此坐收渔利,闷声发大财。超人类甚至可以用信息茧房、数字鸿沟打造新的美丽新世界,让后人类沉迷于滑动手指即可获得并不断自我强化的廉价快乐,从而沉沦为自动打工的生产者与不停剁手的消费者,丧失集体行动乃至独立思考能力,最终“以一种类似奴隶支持雅典民主和哲学的方式”,支持超人类“参与幸福、共同体事务、超越性追求和其他崇高活动”(126页)。
所以,人工智能非但没有通过普遍地赋予或剥夺权利而使人与人之间更为平等,反而以算法黑箱、算法歧视等各种方式进一步扩大了数字鸿沟,强化并掩饰了现有的政治与经济不平等体系,使少部分人能够以更为隐蔽也更有效率的方式对大多数人进行盘剥与控制。换句话说,被消解或被更大程度上消解主体性的是大多数人,能够影响甚至决定算法的是少部分人,因而在人类与技术相对平等表象之下,是人与人之间深刻不变的不平等本质。
因此,我们对机器人统治人类的担忧或许不无道理,在某种意义上也确实触摸到了算法时代不平等的大致轮廓。只是我们未必看透机器人背后其实还是万变不离其宗的资本与少数人,后者才是更加值得害怕的对象。他们通过算法黑箱、技术中立、人工智能主体责任等法律修辞推卸自身应当承担的责任,迷惑大多数后人类去控诉他们无法理解也无法左右,但事实上与之同为工具与奴仆的新兴科技。质言之,算法时代的后人类主义性质只是表象,算法赋权的超人类主义现实才是残酷的真相。大多数后人类成了滋养算法的单向度的数据材料,从而让算法服务于更丰富、更高级、更符合人之为人本质的少部分超人类的生活品质的达成。
作者已经意识到“不仅我们自己可能并不总是人类,而且‘我们中的一些人甚至现在还没有完全被视为人类,更不用说在西方社会、政治和科学历史的过去了’”(128页),并且“最有可能的是那些被甩在后面的人,即那些没有具备足够后人类性的人,将以最痛苦的方式感受到这种转变”(133-134页)。但作者最终扁平化处理了上述关系,以算法的社会性、算法与社会的相互作用,以及由此导致的人与技术的相对平等关系,取代甚或掩盖了技术背后不平等的社会支配关系,并以算法的编写者也不能免于这一反馈循环为由,主张普遍的后人类主义时代到来。这样一种平等的后人类主义,虽然未以技术中立与技术决定的方式为资本免责,却仍是一种形式的,亦即虚伪的平等。它仅仅将过分的技术中心主义稍往平衡的中心移动,带有一种五十步笑百步的徒劳感,令人唏嘘。
实际上,如果将作者对技术与社会交互关系的论述继续推进,必然到达这一结论:技术在改变社会的同时更深刻地受到社会的塑造乃至创造。信息数量的增长及其作用的提升并没有产生新的政治经济社会秩序,相反,是资本主义经济与民族国家的政治、军事要求促使信息技术与信息服务不断发展。换句话说,资本主义与民族国家对技术的决定具有更为根本性的地位,信息资本化仅仅是整个社会资本化的一个组成部分而已。这就导致经济上与政治上的不平等关系成为刻在技术发展基因中的不变字节。任何无视这一现实的论述都将是虚伪的宣传乃至欺骗,发挥着重要的意识形态功能。
太阳底下无新事,这个世界运行的底层逻辑从未改变,新兴技术亦无法动摇分毫:人在本质上仍然是政治的动物,通过建立统治关系来形成共同体。
爱:知其不可而为?
在这个意义上,作者以普遍的爱,包括对代码的爱作为破局之策,颇具知其不可而为之的理想主义或空想色彩:“爱是关怀,是拥抱不可预测和未知,是对次优、不完美和浪费的开放……如果这种爱不仅仅包括人类,还包括有生命和无生命的自然以及代码本身,那么它就真正超越了狭隘的界限、等级和二元论。”(186页)
一方面,爱不仅受限于囚徒困境的一厢情愿,在无人呼应、没有回报中白白牺牲、徒然奉献,也无法及于异于人类的无生命的代码,更无法治愈算法治理背后深刻的不平等关系。爱很伟大,也很无力,仿佛是治愈一切问题的灵丹妙药,却最终顶多起到劝抚人心的安慰剂作用。
亚里士多德有言:“友爱不是指对无生物的爱,因为在这里没有回报的爱,我们也没有对它们的善的希望(例如,希望一瓶酒好是荒唐的,我们最多是希望它保持得好,以便可以享用)。”(《尼格马可伦理学》,商务印书馆,2003年,231页)数码宝贝确实可爱,但现实的人工智能尚未达到这一水平,即使在虚拟现实(VR)、增强现实(AR)技术的辅助下亦然,所以我们不可能对其产生像对伙伴一样的友爱,只能希望其对我们有好处或至少不作恶而已。
甚至有学者在人工智能引发失业危机时预言,未来的陪伴与关怀工作将越发重要且不可能被人工智能所取代,因为它们作为无生命的物体,与有生命的人类终究不同,无法提供我们所需要的情感联结。这也成为代码之爱难以实现或终将只是小众爱好(例如有人对虚拟偶像的迷恋)的佐证。《银翼杀手2049》中的Joi起初看上去如此类人且迷人,仿佛一个模范女友、一个绝世的温柔乡,然而最终也被证明不过是流水线的标准化产品,可以对任何人说出对方想听的任何话,甚至只是千篇一律的“What a day. You look lonely. I can fix that.”
亚氏亦有言:“如果两个人在德性、恶、财富或其他方面相距太远,他们显然就不能继续做朋友,实际上也不会期望继续做朋友。……对这种差距的界限不可能作出一个精确的规定,差距可以越来越大,而友爱依然存在。但是差距如果达到像人距离神那样远,友爱就肯定不能保持。”(同前,242页)因此,拥有更大权力、占据更高地位的算法的编写者、所有者、控制者作为超人类,与受其计算、管理、支配的后人类,在财富、权力、道德等各个方面,差距无限遥远,甚至达到了(如果不是超过了)不同物种的差距。在这样的不平等与分化面前,怎么可能期望友爱的存在?轻飘飘的爱难道能动摇其运用算法所欲巩固的权力体系与利益格局?
更有可能的是,这种所谓的爱将成为美化盘剥与控制、麻痹反对与革新的工具,反而把温情脉脉的面纱重新笼罩。中国古代封建帝制将君臣关系类比为父子关系,从而移孝作忠、以国为家。当代资本家也喜欢把员工称为兄弟、伙伴,试图无本万利地进行道德绑架与洗脑。这些都是爱的不同形式的扭曲与异化。
但另一方面,唯心主义的爱虽然不能解决实际问题,却实实在在地表达了对真正的平等关系的渴望,并成为追求平等的不竭动力。这一平等关系不仅是人、技术与环境之间的平等,更首要、更紧迫地是人与人之间的真正平等,而这是更为切实的当代法律的永恒追求,也是技术赋权的终极理想。没有这样的爱,也许在理性计算下,当前的不平等关系与体系也是可以勉强忍受,甚至欣然接受的:喝汤虽然比不上吃肉,但总比饿死要好,而且说不定我也能成为肉食者。更何况后现代人最大的恐惧便是动荡不安,生怕手头仅有的一点所谓财产将因此丧失。所以许多后人类甚至比超人类更为积极地拥护既有利益格局,仿佛得了斯德哥尔摩综合征。
更重要的是,没有这样的爱,即使有人意识到了问题所在,任何改变都不会发生。就像作者所说,“爱在这里最简单的作用可能是一个努力的放大镜:正如米奇和卡弗尔所观察到的,我们可能有许多崇高的使这个世界(在环境和其他方面)更公平和更可持续的倡议,但‘这些努力无法实现任何事情,除非它们得到爱的补充’”(185页)。在现实中,如果没有这样一种一头脑热的冲劲,不去积极解决问题,不去主动对抗不公正,并没有什么美好生活与良善秩序能够自生自发地形成。
算法对我们这个世界的改变是巨大的:它不仅重塑了我们的生产方式、生活方式,而且挑战了我们的政治原则、法治原则,使这个世界变得更有效率也更为脆弱,使我们必须重新思考自己与技术、环境之间的关系。但算法似乎又并未真正改变什么:我们仍然生活在一个很不自由、很不平等的世界,人与人之间的关系仍是紧张且对立的,人类共同体的底层结构并未发生变化,反而更加强化了。认识个中的变与不变,知其不可为而仍然为之,或许是这本小书通过窥视算法治理之后人类性,并天真地以爱作为解决方案所能具有的最大贡献。
标签: #算法最新版