前言:
当前咱们对“ai直接选择工具怎么删除”大致比较看重,小伙伴们都想要了解一些“ai直接选择工具怎么删除”的相关资讯。那么小编也在网上搜集了一些对于“ai直接选择工具怎么删除””的相关知识,希望朋友们能喜欢,小伙伴们快快来学习一下吧!作者 | 阿虎
编辑 | 张洁
校对 | 卷毛
快问快答!下面哪一张图是AI生成的?
先卖个关子,结尾公布答案。
如今,由AI生成的内容逐渐充斥我们的生活,随着AI技术的迭代,更是让人感到真假难辨。
今年6月,欧盟执法机构Europol的一份报告显示,到2026年,互联网上约90%的内容或由AI产生或者编辑。
为了提高内容的透明度和可信度,国内外各平台陆续上线内容创作者声明功能,给AI内容打“标签”。
9月20日,短视频平台TikTok全面启动平台AIGC内容的监管,推出了“标记AI生成内容”的新功能。如果创作者未标记涉及的AI工具,内容可能会被删除。
9月13日,B站发布《关于“主动添加内容标识”的公告》称,将在9月20日上线“创作者声明”功能,允许UP主为其视频添加标识,比如人工智能生成、虚构内容等。
9月8日,微信发布关于规范“自媒体”创作者内容标注的公告,要求“自媒体”创作者应主动对发布内容进行规范标注。利用深度合成技术生成内容时,要遵守法律法规及平台规则,显著标注内容为技术生成。
图片来源:微信珊瑚安全公众号
更早一些,今年5月,抖音、小红书等平台均要求创作者在人工智能生成的内容上显着标注,根据实际情况勾选“内容由AI生成”。抖音发布了《关于人工智能生成内容标识的水印与元数据规范》通知,帮助用户区分虚拟内容和真实内容。
各平台对于AI生成的内容都需要进行明确的声明,无疑为内容添加了一层水印保护。
那么,为什么我们需要数字水印?AI水印该如何添加?AI泛滥的时代,或许最终还是需要科技来提供可行解法。
DeepFake造假泛滥,难辨真伪
深度伪造(DeepFake)指的是一种基于人工智能合成某个人的长相或声音的技术,名人和公众人物通常是此类造假行为的受害者,比如此前的AI孙燕姿以及“时尚教皇”。
教皇穿着巴黎世家风格羽绒服,走在街道上;AI生成的虚假图像
最近,一系列利用深度伪造技术制作的虚假视频在TikTok、YouTube等主流社交媒体平台上引起关注。
这些虚假视频往往由大众熟悉的人物合成,例如全球首富马斯克在视频中推荐自己看好的投资机会,让人难以判断其真实性。
AI不光被用来恶搞名人明星,娱乐大众,也被拿来捏造国际新闻大事,撼动股价。
5月底,一张五角大楼着火的照片在社交平台上疯传,这张图片一度导致标普500指数明显走低,由涨转跌。最后,有媒体报道称该图片是由人工智能生成的。
而在互联网时代,几乎每个人都可能成为AI的受害者。(相关阅读《你的自拍照可能被收入“不雅图素材库”,AI作恶其实离你很近!》)
某知名AI文生图的网站平台允许用户进行高度自定义创作模型,生成多种风格的图像,当然也包括生成一些擦边向的内容。
这些模型大多数情况下都未经当事人的同意,在互联网上擅自抓取照片,进行模型训练,生成特定风格、甚至软色情的人物图片,以博取下载量和关注。
今年7月,德国广告代理商DDB发布了一则关于社交平台儿童数据安全的公益广告,向人们展示儿童面部数据有多大可能会被用于创作成人内容,呼吁家长尽量少在网上分享儿童照片。
在早期,识别深度伪造技术并不具有挑战性,因为它们大多数都存在着明显的缺陷,例如不自然的面部表情或眼睛不眨眼。但随着时间的推移,深度伪造技术逐渐消除了缺陷,使造假更加接近现实,达到“无中生有”的效果。
除了AI生成图像,让人分不清真假之外,在音视频领域的伪造技术则更为泛滥。
比如近日,浙江警方侦破一起造谣牟利案,作案团伙利用AI生成1.8万余个虚假视频后发布,非法获利4万余元。
此前发生了一系列的AI诈骗事件,由于诈骗金额过大,速度之快,也引起了不少讨论。安徽有受骗者接到“朋友”在开会的视频,9秒被骗245万;包头有人被换脸和拟声的亲友迷惑,10分钟内被骗430万。
可见,DeepFake技术已经深入多模态的各个方面,而水印的添加可以在“真假”、“虚实”之间构筑起一道屏障,以防混淆视听。
AI水印,该怎么加?
无论教皇是否真的变装走在了大街上,还是听到的歌曲并非孙燕姿演唱,我们都需要知道内容是否被AI篡改过或者压根由AI生成的。
7月27日,Open AI团队悄然下线了自己推出的“AI生成内容识别器”,理由是该识别器对AI生成内容的检出成功率仅为26%,AI检测工具准确率已经无法满足实际操作中的需求。
在这个背景下,数字水印成为了平台和工具提供方一致认为可行有效的解决方法。
它是一种隐藏在数字内容中的特殊标识信息,用于标识内容的来源和真伪,类似于隐形的“防伪标记”,例如在文章中隐秘添加“由AI生成”的文字样式。
起初,国外创意平台Shutterstock最先宣布用C2PA协议(类似区块链的加密技术)为AI生成内容打上标签,用来区分是否为人类创作。
C2PA通过数据加密技术给每个像素进行编码,以便之后查看创作源头、历史修改记录等等,让作品可以溯源,降低生成式人工智能导致的“误传内容”。
这便是数字水印最初的表现形式,微软、Adobe、索尼等科技企业都将其集成在了自己旗下的产品中,为AI生成内容打上水印标记。
8月31日,谷歌上线了一个名为Synth ID的新工具,能够在AI生成内容中嵌入肉眼不可见的水印,并且不会影响图像本身的质量和体验。
谷歌DeepMind CEO Demis Hassabis表示,SynthID是为了解决深度伪造潜藏的危机而开发的,同样可以应用在音频、视频、文本等其他形式的AI生成内容上。
SynthID目前仅为谷歌文生图工具Imagen生成的图片添加水印,并且识别图片是否为该模型生成。
改变亮度、颜色、噪点等信息元素,水印依旧存在
该工具提供了三个程度级别来解释水印识别的结果。如果检测到数字水印,则图像的一部分可能是由谷歌绘图工具Imagen生成的。和传统水印不同的是,即使图像被裁剪、编辑、或者旋转,水印依然可以被检测到。
SynthID中水印检测的不同结果
SynthID不仅能够为图片添加防伪标记,同样也能够识别图片的真假,一定程度上提升AI产品的安全性。
同样,8月21日,商汤科技推出可信AI基础设施SenseTrust,上线数字水印技术,并将其服务于旗下的“商汤秒画”等产品中。
具体应用上,用户可在AIGC相关产品发布时加入,并且只有通过特定的解码器和专属密钥才能提取,能够支持多模态数据。
不过除了隐蔽的数字水印之外,商汤秒画同样在AI生成图片上加入了传统的显性水印。
除了给图像内容添加标记外,有研究团队正在为AI生成文字工具开发水印版本。
此前,马里兰大学研究人员发表了一篇《A watermark for Large Language Models》的研究论文,详细描述了如何给文本内容加上数字水印。Open AI 系统安全性部门负责人Jan Leike在接受采访时曾表示,Open AI正在探索的水印方法就类似于此种。
图片来源:论文《A watermark for Large Language Models》
这个方法的大概意思是,在生成的句子中增加一些特定单词出现的概率,就可以给句子添加一个“数字水印”,方便检测句子是否由AI生成。值得一提的是,这种办法的“水印”只有从一开始嵌入到大语言模型才有效。
比如,研究人员让ChatGPT生成句子“今天的天气很好,小明在_____”,为了给它加上水印,需要先随机选择一部分单词,像“公园”、“学校”、“天气”作为系统偏好词表。
有水印的版本是“今天的天气非常好,小明在公园打网球”,而无水印版本可能是“今天的天气很好,小明准备去打网球”。
生成的句子对于普通人来说看起来没有区别,但通过统计句子中出现的偏好词汇的数量,就可以检测出这个句子是否被加上了数字水印。当偏好词汇的数值高于一定比例,水印检测器可以判定文本由AI生成。
当然,以上的例子只是根据原理做的简单模拟,实际论文中的系统生成词表更为复杂。
在图像中稍微改变某些像素的颜色来嵌入信息,或是在文字内容中改变个别单词出现的频率来插入信息,都是数字水印的添加方式,并且这样的隐藏水印由AI在输出时自行添加,用户难以察觉。
除了平台为AI生成内容自动添加水印,来保证生成内容的安全性外,内容创作者还会利用水印来对抗AI复制技术的应用。
今年4月,上海交通大学研究团队上线“Mist”开源工具,通过在图像上放入看不见的“水印”,使图像无法识别,防止AI进行学习和模仿。
它能够对图像进行“噪声处理”,使得图像生成工具的算法难以辨认原始图片的特点,从而难以生成与原图风格类似的新图片。
比如,原图是莫奈的《撑伞的女人》,图二是给AI喂图后生成的AI版本。如果我们对原图加入Mist数字水印,那么AI处理的图片效果就会如第四张图片一般。这样就能避免创作者作品被拿去随意生成类似图像。
用户也可以根据实际需求对水印进行设置和调整。在设置水印信息时,需要确保信息的唯一性,以确保水印的有效性。
社交平台上有很多创作者表示,“愿意上传图片,不代表愿意将作品献祭给AI”。
B站UP主“虚幻的生物”分享了开源软件Glaze,教网友如何防止AI“白嫖”自己的作品。UP主“-边火-”投稿了一条“赛博偏方加噪点加水印,是否能躲过AI识别”视频,评论区“卷”起了添加AI防伪标识的办法。
打标记能防止AI“滥用”吗
在生成式AI带来的挑战下,中国、美国、英国等各国政府都积极推出AI管理规范,不过,目前在以下五个国家或地区中,仅欧盟和中国对于生成内容AI水印等标识提出了要求。
6月14日,欧盟正式批准通过《人工智能法案》草案,要求AI生成的内容应该被标注,旨在提高对AI生成内容的透明度。目前,该法案尚未正式生效。
8月15日,我国落地生效的《生成式人工智能服务管理暂行办法》,针对生成内容的准确和可靠性提出了新要求,服务提供者需要采取相应的技术和管理措施,以确保生成的内容符合事实,并且能够提供透明的信息来源。
对于谷歌、Adobe、微软等科技公司和平台来说,AI生成内容引发的假消息和假新闻的传播,相应平台需要承担起监管不当的责任。
如果一张图片显示有数字水印,那么平台可以相应地打上标记“内容由AI生成,谨慎甄别”,以便网友能够更容易地将其识别为虚假内容,一定程度上降低其传播的速度。
另外,对于内容创作者来说,打上数字水印,意味着将内容版权声明为自己所有,防止被AI随意拿去训练模型。
无论是创作者声明或是隐形水印标记,都正在树立起一道保护知识版权和内容安全的数字防线。
然而,就像Open AI CEO Sam Altman所说,不存在一个完美的AI生成辨别工具。目前,这些标记AI生成内容的新工具仍处于起步阶段,并未完全面向公众开放。
另一方面,并非所有AI生成工具都愿意给自己的内容打上AI水印。如何在水印的实施标准上达成共识,对于人工智能领域的企业来说还是个未知数。
不过,这些水印标识至少能够帮助降低虚假信息诞生的风险,实现对内容的溯源和确认版权。
回到最初的两张图,不知道各位猜对了吗?左图是AI生成的,右图是真实拍摄的。
标签: #ai直接选择工具怎么删除