前言:
当前咱们对“人工智能安全性理论”大约比较重视,大家都想要知道一些“人工智能安全性理论”的相关知识。那么小编在网络上收集了一些对于“人工智能安全性理论””的相关内容,希望小伙伴们能喜欢,姐妹们一起来学习一下吧!当前,数字化浪潮席卷全球,人工智能随之蓬勃发展。在这一轮科技创新中,借助大数据和云计算等技术,人工智能在娱乐、工业、农业、医疗、金融等领域飞速嵌入,已成为促进传统产业转型升级的重要方式之一,而ChatGPT等大模型的出现将此轮人工智能的创新热潮推至顶峰,开启了算法生成内容的新纪元。近年来,中国人工智能产业保持强劲增长态势,相关公司纷纷加大投入力度, 产学研用深度融合,市场规模不断扩大,核心技术也向应用端延伸,有力促进了人工智能从实验室走向市场,服务实体经济的高质量发展。世界领先管理咨询公司麦肯锡预计,到2030年,新一代人工智能将为全球创造7万亿美元的经济价值,其中中国有望贡献超过2万亿美元,将近全球总量的1/3。在这场新科技革命中,中国企业正把握机遇,加快布局,争当数字经济的领军者。
中国自2015年就将人工智能作为国家战略规划。2017年,国务院发布《新一代人工智能发展规划》,首次在国家层面明确了人工智能的发展目标和路线图,规划提出,到2030年,人工智能理论、技术与应用要达到世界领先水平,使中国成为全球主要的人工智能创新中心。近几年,中国政府愈加重视数字技术在社会发展中的重要作用,陆续发布了《数字中国建设整体布局规划》、《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》、《“十四五”国家信息化规划》等多项支持政策,推动人工智能、大数据等数字技术的发展,助力数字技术和实体经济的深度融合。可以预见,在国家战略的引领下,中国人工智能产业必将保持强劲发展势头,为经济社会转型升级和民生改善提供有力支撑。
01生成式人工智能的安全风险
生成式人工智能的基本原理是利用人工智能技术中的“自然语言处理”、“机器学习”、“深度学习”等技术,对大量的语言数据进行分析、学习和模拟,从而实现对自然语言的理解和生成。目前AIGC有望率先在传媒、影视娱乐、数字营销以及电商等领域取得发展,在落地化进程中应与大数据、区块链、云计算等数字技术联动发展,以实体经济智能化需求为导向,以产业应用为目标,改善传统产业环节流程,实现降本增效,形成技术和产业的良性循环。此外,相比以往的决策式人工智能技术,生成式人工智能体现出强人机交互、强语料依赖等重要特征,在技术发展与风险控制两方面均提出了新的问题与挑战,因此,数据安全治理作为其健康应用的重要保障,亟待进一步完善制度化。
生成式AI涉及数据安全风险的应用包括:
1.个性化推荐系统:这类系统需要收集和分析大量用户个人数据,以提供个性化服务,如果用户个人信息的收集和处理不当,很容易导致用户隐私泄露。
2.客户服务机器人:机器人需要接入客户信息数据库来提供服务,如果数据使用不当,可能会造成客户信息的非授权访问。
3.用户内容生成服务:像生成用户个人素材等服务需要用户上传私人数据,如果平台的数据安全保障不足,可能会导致用户数据被非法利用。
4.AI创作类应用:这类应用需要训练大量版权数据,如文本、音视频等,如果数据来源不明或者使用不当,就有可能侵犯数据所有者的权益。
5.AI程序类应用:涉及金融、医疗等敏感数据,如果算法设计缺陷或者模型训练不当,都可能造成数据泄密或被滥用。
02生成式人工智能安全治理的价值取向
健全的数据治理制度是支持和保障生成式AI商业化的重要基石,它将推动数据产业更加规范和健康发展, 并释放数据要素与应用的更大价值。
首先,针对生成式AI数据的治理制度化应规范数据采集使用。通过建立数据标注、存储、审查机制,合理控制敏感数据的获取,避免训练模型时出现数据滥用现象,保护数据主体权益。同时,严格的数据入库流程也有助于提高训练数据质量,为生成质量提供数据保障。
其次,完善的数据治理制度有利于降低生成风险。可以通过构建内容审查机制,对模型生成内容进行安全合规审查,减少有害信息生成,并建立内容生成追溯系统,在必要时查明责任方,这对商业生成平台意义重大。
再者,数据治理制度化将提升公众对商业化应用的信任度。一系列数据安全措施的明确,将减少公众的安全隐忧,增加产品和服务的可接受性,这将直接帮助相关商业模式获得更高市场认可度。
最后,规范的数据治理将有助于吸引投资并降低企业运营风险。在相关政策法规更明确的背景下,企业可以更专注核心业务创新,投资者也更愿意接受新商业模式的精心设计。
03生成式人工智能安全治理的实施路径
2023年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局七部门正式出台《生成式人工智能服务管理暂行办法》,体现了中国在生成式AI发展过程中,推进创新与规范并重的监管理念。
首先,《办法》既鼓励生成式AI技术在各个行业的应用创新,也明确规范了训练数据的合法来源、知识产权保护、防止生成有害信息等要求。这种监管态度肯定了生成式AI的发展前景,也为其商业化应用创造了良好环境。
其次,《办法》要求服务提供者必须使用合法来源的数据进行模型训练,并采取措施提高训练数据的质量。这也将促使企业加强对核心训练数据的收集和治理,形成的合规训练数据有助于提升生成内容的质量,让企业在与监管对话中占据主动。而建立数据评估、标注、反馈等流程,形成数据资产,伴随中国最新出台的数据资产入表政策,将帮助合规企业形成专有的数据资产池并从中长期受益。
在具体的商业模式上,这些规范将引导企业主动承担社会责任。例如,充分尊重用户权益,建立健全的投诉响应机制;防止生成有害信息,及时采取处置措施;不得实施垄断与不正当竞争等。这将迫使生成式AI企业调整商业策略,在创新应用的同时不断完善内控和风险管理。
2023年10月30日,白宫首套有关生成式人工智能的监管规定也正式出台,要求对人工智能进行新的安全评估,公平和民权指引,以及对劳动力市场影响的研究。从政策上看,美国并未强调训练AI时的数据来源问题,监管更加侧重算法本身的安全性和可控性,要求部分公司与政府共享安全测试结果,并制定算法安全标准与计划;此外要求进一步评估算法中所用隐私技术,以保护消费者权益;最后要求致力避免算法本身产生歧视,以保障公平正义。
这反映了两国在科技监管与社会治理方面不同的重心所在。中国偏向政府引导机制与社会秩序的维护,管理条例主要针对生成式人工智能服务提供者,并强调用户权益保护和信息安全等,以避免走先发展后治理的老路;而美方则看重市场机制和社会自治,规定涉及机构、承包商、联邦政府等多方主体,在算法的隐私保护、歧视、公平公正等方面都做出了指示。虽然中美在生成式AI监管理念和重点上存在差异,但都在积极推进算法的健康发展。后续仍需相关监管部门加强国际化的沟通与合作,以促进全球治理格局的形成。
总体来说,在监管和商业应用间寻求平衡,是推进生成式AI可持续发展的必由之路。中国将在AI产业腾飞的监管实践中积累经验,逐步找到符合中国国情正确道路的生成式AI发展规律与治理模式,在战略性新兴产业上抢占治理先机,推动数字中国建设的可持续发展。
标签: #人工智能安全性理论