龙空技术网

交大开设人工智能伦理必修课,为未来算法工程师输入伦理意识

上观新闻 156

前言:

当前我们对“算法需要输入吗”可能比较注意,姐妹们都想要分析一些“算法需要输入吗”的相关知识。那么小编同时在网上搜集了一些有关“算法需要输入吗””的相关知识,希望你们能喜欢,姐妹们一起来了解一下吧!

本周一是上海交通大学开学第一天,“人工智能思维与伦理”课程在闵行校区开讲,近100名本科生聆听了计算机科学与工程系教授吕宝粮的第一讲。“我还以为这门课要教编程和算法,没想到吕老师主要讲的是伦理问题,感觉更接近文科。”人工智能专业大一新生卜家梓告诉记者。周一晚上,小卜就写好了课后作业《“信息茧房”中的现代人》,对网络媒体的智能算法推送做了反思。

这门课程是交大电子信息与电气工程学院人工智能专业的必修课,其他专业的学生可选修。主讲教师共有4人,其中3人是人工智能科学家,另一位是法学家。来自商汤的人工智能专家作为企业特邀讲师,也会为学生上课。

吕宝粮和交大凯原法学院教授郑戈认为,为人工智能相关专业的本科生开设科技伦理课程很有必要,可以为未来的算法工程师、软硬件开发人员输入伦理意识,防止新一代信息技术的误用和作恶。

教授发问引发未来精英思考

深度学习等人工智能技术有哪些典型应用?阿西莫夫提出的机器人三原则是什么?霍金对人工智能的忧虑是不是杞人忧天?“人工智能思维与伦理”第一课上,吕老师讲的内容很快引起了同学们的兴趣。据了解,人工智能本科专业是交大录取分数线最高的专业,旨在培养这个领域的行业精英。开设这门大一必修课,是为了让未来的精英了解人工智能技术发展与伦理、法律的关系,从事技术研发时能恪守道德法则。

来源:吕宝粮教授课件

“你们今后很可能成为IT公司的研发人员,在开发产品时,能否遵循个人信息采集的‘最小必要’原则?能否抵制‘大数据杀熟’的商业利益诱惑?”吕老师的发问,引发了同学们的思考。据介绍,“最小必要”原则是指移动互联网产品采集用户人脸、手机号等个人信息时,要有明确、合理的目的,并应当限于实现目的的最小范围。“大数据杀熟”是指互联网企业利用用户数据,对老用户抬高价格的行为。

作为脑机交互专家,吕宝粮还介绍了他与瑞金医院合作开展的“基于情感脑机接口的难治性抑郁症评估与治疗”项目。用脑深部电刺激术(DBS)治疗抑郁症患者,也涉及伦理问题,一是临床医学研究伦理,二是DBS参数调节伦理。“由于参数调节不当,澳大利亚一名帕金森病人接受DBS治疗后,变得性欲强烈。如果他因此犯罪,谁该承担法律责任?”这个问题,又一次引发了同学们的思考。

科研团队在瑞金医院试用情感脑机接口抑郁症评估系统。

加强理工科学生价值理性教育

作为法理学专家,郑戈将为学生讲8节课,分为3个专题——理性的人工智能、辅助性的人工智能、负责任的人工智能。

在“理性的人工智能”专题中,他将与学生探讨一个问题:自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念,法律上的过失就是指违反注意义务。自动驾驶达到L3、L4级别后,如果发生交通事故,该由谁承担违反注意义务的责任?“我国《道路交通安全法(修订建议稿)》已引入自动驾驶系统开发单位的责任,但这个问题其实很复杂。自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统,每个模块都有开发者。发生事故后,5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题,需要进一步研究。”他希望通过对这个问题的讲解,让学生认识到,今后开发自动驾驶系统的各个模块时要尽到注意义务,从而使整个系统成为“理性的人工智能”。

在重庆举行的自动驾驶最强车脑挑战赛赛场,自动驾驶汽车在真实道路上挑战“行人横穿马路”交通场景。新华社发

与自动驾驶相比,智能语音客服的应用如今更为广泛。用户拨打客服电话时,与他交流的很可能是语音机器人。在“辅助性的人工智能”专题中,郑戈将援引布鲁克林法学院教授帕斯奎尔的观点,分析“人工智能和机器人系统不应该假冒人类”这一法则。

智能语音系统为何不能假冒人类,而应在对话中告知用户自己是机器人?他解释说,现代伦理学的基础是康德提出的“人是目的,不是手段”,这个论断确立了人的主体性地位,日益强大的人工智能算法如果假冒人类,会消解人的主体性。“人工智能应该是辅助性的,人工智能和机器系统必须显示出它们的创造者、控制者和所有者,而不能刻意模糊人与机器的界限。”

在郑戈看来,国内高校的理工科教育过于偏重工具理性,只要求学生找到科学和工程目标的最优解,忽略了“人生的目的”“有温度的科技”等价值理性。“人工智能思维与伦理”课程在价值理性教育上做了积极探索,会让理工科大学生更富有人文关怀。

大学生和中学生都应学伦理

虽然只听了两节课,但卜家梓同学已经有了改造移动互联网产品的想法。“很多同学喜欢刷抖音等软件,因为它们一直推送自己喜欢看的内容,我了解到‘信息茧房’理论后,才意识这类软件是有问题的,因为它们只根据用户个人喜好推送信息,会让用户思维固化、眼界狭隘。”小卜谈了自己的观点。在发给吕老师的课后作业中,他提出了改进建议:软件开发人员和算法工程师应遵循伦理规范,加入“是否允许本App收集您的偏好等信息”这一权限给予提示,让用户获得不根据行为偏好获取信息的权利,不再受“信息茧房”束缚。

吕宝粮和郑戈介绍,国外不少高校也开设了人工智能等信息技术伦理课。比如麻省理工学院的“工程师伦理:人工智能”,从引发伦理困境的工程案例出发,揭示其背后的深层问题。又如普林斯顿大学的人工智能与伦理对话项目,由该校人类价值中心和信息技术政策中心联合开发,建有案例库,供教学和研究使用。

“我们身处数字社会,人工智能已从前沿技术变成基础技术,带来了一系列伦理、法律和治理问题。”在郑戈看来,国内高校相关专业都有必要开设伦理类课程,从人才培养入手树立“科技向善”理念,让大学生拥有自觉的科技伦理意识,在未来职业生涯中践行科技伦理、遵守法律法规。

他还建议国内科技和教育工作者借鉴麻省理工做法,为中学生开发人工智能伦理课程。据介绍,麻省理工为中学生开发的课程旨在提高青少年使用智能手机、社交媒体时的自我控制和道德判断能力。“网络平台经济也叫注意力经济,平台背后的行为偏好算法让很多青少年沉迷其中,花费了大量时间。”郑戈说,“中学可通过课程教育,让学生了解网络平台的算法逻辑,产生对人工智能两面性的自觉意识。”

栏目主编:黄海华 文字编辑:俞陶然 题图来源:IC photo 图片编辑:邵竞

来源:作者:俞陶然

标签: #算法需要输入吗