前言:
当前小伙伴们对“算法分析课程”大致比较重视,姐妹们都需要剖析一些“算法分析课程”的相关知识。那么小编也在网摘上网罗了一些关于“算法分析课程””的相关知识,希望你们能喜欢,姐妹们一起来了解一下吧!原标题:算法伦理探析
算法伦理的核心原则是算法人文主义
陈昌凤、吕宇翔在2022年第3期《内蒙古社会科学》《算法伦理研究:视角、框架和原则》一文中认为,算法伦理的核心原则是算法人文主义,即坚持人文主义的传统三个要素。一是智能算法时代,仍然要坚持人的主导价值,重视人的独特性即人的尊严;二是在将算法广泛应用于人类决策的同时,仍然要坚持以人为本,从人的视角出发;三是将人及人性视作一个丰富而又复杂的存在,在算法运行中尊重人和人性。算法人文主义是一种底线思维、协商伦理,它所主张的“以人为本”并不是那种积极、主动的自我主导、自我支配,而是从最底线的意义维护人之为人的独特价值,也就是人的尊严和自由。算法人文主义主张一种前科学的人性观和世界观,人并非算法,而是充满了各种可能性,具有独特的丰富性和复杂性。在人与算法的关系上,由于人的存在是一种非本质化却又饱含丰富性的存在,包括算法在内的外在技术以及人的理性、自由,甚至身体,都只是人类存在的一个维度或者面向,算法人文主义拒绝心身二元分离、主客体对立的价值观,而是将身体与心灵视作一个整体,将技术内置于人的存在之中,由此构建基于关切和照看的整体主义的技术观,人与技术不是主客体支配与被支配的关系,而是在人的存在之中,算法技术是作为人之存在的重要面向,并在使用和照看中展开和呈现人之主体性的关系。
要确保人类始终处于主导地位
徐瑞萍、刘杰在2022年第4期《佛山科学技术学院学报(社会科学版)》《数字孪生时代的算法风险与伦理治理》一文中认为,要确保人类始终处于主导地位,防止算法技术这一人造物超出人类的可控范围。虽然已有研究指出,算法具有拟主体性,但是人类仍然并将始终是主导者。算法要能够尊重使用者,尊重社会文化,避免人类的利益、尊严和价值主体地位受损,确保算法技术持有与人类相同的价值观,始终坚守不损害人类自身的道德底线,实现造福人类的正确价值取向。当算法技术替人类做出决策时,应该尊重人的主体价值,让人类处于主导地位。以算法技术赋能医疗为例,判断一个人是否会生病以及诊疗方案的选择应该让医生处于主体地位,在尊重医生的选择判断的基础上参考算法技术的意见。如果不能让人类处于主导地位,那么技术作为人造物就会反过来控制人类,让人类丧失主导权。
算法事故风险评估机制的建立是必要的
孙保学在2019年第10期《哲学动态》《人工智能算法伦理及其风险》一文中认为,算法的伦理风险防控实质上仍是人类对自身伦理风险防控的一部分。因而,算法不是绝对可靠的,算法事故风险评估机制的建立是必要的。面对数据分析和算法的复杂性,这项工作的展开可能面临种种困境。它可能要求我们从两个方向努力“驯化”算法:一是通过技术手段努力使算法尽可能地可解释和可追溯,能够对决策步骤或推理过程以人类可理解的方式(文字、声音或图像等)呈现。当然,这种解释必须是经得起实践检验的,而不是欺骗人类的随机语义组合;二是重新定位智能机器与人类的关系。随着算法的自主性不断提高,智能机器将从辅助型发展为协作型。人们越来越多地使用算法来辅助决策,同时算法也越来越依靠人们的使用来提高其性能表现。
算法设计者是构建算法的核心主体,对算法负有道德责任
周映锋、朱尚品在2022年第10期《工业控制计算机》《算法的伦理之踵及其消解进路》一文中认为,算法设计者是构建算法的核心主体,应对算法负有道德责任。由此,消解算法伦理之踵的关键在于强调算法设计者需要承担的道德责任。对于算法设计者(人)而言,应同时具有正向和负向两种道德责任,在正向道德视域下,算法设计者该如何做,如何通过有效手段保证算法合乎伦理规范,使其进行正确决策,这是其核心要义;在负向的道德责任视域下,算法在出现不利后果时,需如何担负道德责任,积极承担责任,不逃避责任,这是重中之重。在处于正向道德的情况下, 算法设计者在设计研发算法时,不能完全以经济价值、技术价值的实现为终极目标,需要从“人与社会”的价值维度予以更多道德考虑。于负向的道德责任而言,如若算法引发伦理问题,算法设计者应承担相应的不可推卸的道德责任,以期引导自己合理设计算法。因此,需要其以道德想象力(Moral Imagination)为手段构建道德责任。只有这样,拥有道德想象力的算法设计者,在认识和理解了道德责任相关的经验之后,做出道德的决定,来建立自身道德责任认知。(栏目主持:赵鑫)
来源:深圳特区报
标签: #算法分析课程