前言:
现时大家对“如何保障人工智能的安全性论文”大致比较关切,小伙伴们都需要知道一些“如何保障人工智能的安全性论文”的相关知识。那么小编在网络上收集了一些有关“如何保障人工智能的安全性论文””的相关知识,希望看官们能喜欢,朋友们快快来学习一下吧!作者:杨福忠
最近,人工智能产品ChatGPT横空出世。由于具有语言理解和文本生成能力,特别是能够从事论文写作、翻译以及制作司法裁判文书等工作,该产品引发了人们对人工智能在经济社会发展中应用的广泛讨论。与此同时,我国工业和信息化部等部门联合印发了《“机器人+”应用行动实施方案》,明确了人工智能机器人应用的10大重点领域,提出推动各行业、各地方结合行业发展阶段和区域发展特色,开展“机器人+”应用创新实践;搭建国际国内交流平台,形成全面推进机器人应用的浓厚氛围。这都预示着人工智能加快应用的时代正在到来。
人工智能作为一种战略性新兴技术,其蓬勃发展和广泛应用,将塑造和赋能越来越多的行业、领域和应用场景,形成“人工智能赋能+”效应,为经济社会发展注入强劲动能。不过,人工智能应用是一把“双刃剑”,它在赋能经济社会发展的同时也可能引发风险。一是新型法律纠纷风险,比如人工智能侵权纠纷、著作权纠纷、人工智能技术滥用带来的权益纠纷等。二是道德风险。人工智能不能进行价值判断,但它是在研发人员价值观念支配下设计开发出来的,容易受研发者秉持的价值观念影响。三是人工智能技术不完善造成的社会公害风险,比如算法歧视、泄露隐私信息等。对此,必须加强对人工智能潜在风险的研判和防范,确保人工智能安全、可靠、可控。
在规范策略上,应坚持规制与保障并重。一项新技术从研发到进入市场,再到融入社会生产、生活,产生风险是难以避免的,不能因为风险而放弃新技术的研发和应用。理想目标应是把风险最小化,把技术获利最大化。这就要求法律和政策做到规制与保障并重。要通过法律与政策手段解决人工智能引发的风险,实现有序发展;同时,要确保人工智能创新发展,更好赋能经济社会。不过,规制与保障之间可能存在价值冲突,规制不当可能扼杀人工智能的创新发展,必须审慎地处理好二者之间的关系。
在规范手段上,注重软性引导与硬性约束同向发力。应根据人工智能应用产生风险的原因,有针对性地采用不同规范手段。对人工智能因技术不完善引发的风险,主要依靠软性规范。软性规范具有倡导性、灵活性强的特点。可以通过制定指南或行业自律等方式引导技术向善,防范潜在风险发生。这是防范人工智能风险不可或缺的手段。
对滥用人工智能技术引发的风险,则要依靠硬性约束。硬性约束规定明确,可操作性强,能够为人们如何行为提供具体指引,并且有强制力保障。随着人工智能广泛应用于各行业,滥用人工智能技术多发频发,这就需要通过硬性约束,规范治理人工智能滥用问题。目前,我国专门针对人工智能技术滥用而出台的法律数量少、位阶低,亟需加大立法步伐。
在规范方式上,强化政府与企业治理协同,相辅相成,相互保障。具体而言,政府应扮演人工智能发展政策的制定者、治理议程的设置者以及法律法规实施的监督者等角色。企业是人工智能技术、产品或服务研发和使用的主体,也是发展人工智能的责任主体,必须担负起人工智能风险防范的社会责任。应加强人工智能技术企业间的合作,依靠技术手段防范人工智能风险。(杨福忠)
来源: 经济日报
标签: #如何保障人工智能的安全性论文