龙空技术网

使用AI CoNR 算法,仅仅利用4张动漫图片——便可以创建舞蹈视频

人工智能研究所 1646

前言:

现时兄弟们对“同一个动画如何设置多个动画”大概比较注重,同学们都想要学习一些“同一个动画如何设置多个动画”的相关知识。那么小编在网络上搜集了一些关于“同一个动画如何设置多个动画””的相关文章,希望大家能喜欢,兄弟们一起来学习一下吧!

上期视频我们分享了一个AI算法,本期我们就分享一下实现代码

AI算法太牛了,利用4张图片,便可以生成惟妙惟肖的音乐舞蹈

此AI算法称之为CoNR该技术通过基于多个动画指定姿势来创建舞蹈视频。

——1——

什么是CoNR?

下面是CoNR的示意图。将目标姿势 ( Itar ) 转换为由紧凑地标数字表示的 UDP 表示 ( Ptar)

另一方面,几个动画(Sref)输入到 U-Net 格式网络,由Encoder 编码,并由 Decoder 与 UPD 表示(Ptar)一起解码。此时,通过共享多个解码器 D1 到 D3的权重来创建目标姿势动画。

CoNR

源代码 

CoNR

——2——

代码实现

#@title Repo 初始化#@markdown 克隆github上的项目repo,并安装相应的依赖。!git clone  CoNR!pip install -r requirements.txt#下载权重/content/CoNR/weightsFrom: : /content/CoNR/weights/rgbadecodernet.pthFrom: : /content/CoNR/weights/shader.pthFrom: : /content/CoNR/weights/target_pose_encoder.pthFrom: : /content/CoNR/weights/udpparsernet.pth

Step1:首先是copy github的源代码,并安装需要的第三方包与预训练权重,这样,我们就初始化完成了整个项目。

UDP = 'double_ponytail' #@param ['double_ponytail', 'short_hair', 'self_defined']#@markdown 下载示例超密集姿势序列if UDP == 'short_hair':  %cd ..  !gdown   !unzip short_hair.zip  !mv short_hair/ poses/  !lselif UDP == 'double_ponytail':  %cd ..  !gdown   !unzip double_ponytail.zip  !mv double_ponytail/ poses/  !lselse:  print("Please upload your UDP sequences or poses images to /content/CoNR/poses/ .")character = 'double_ponytail' #@param ['double_ponytail', 'short_hair', 'self_defined']From: : /content/CoNR/double_ponytail_images.zip

Step2:代码需要选择一个超密集姿势,这里官方提供两个示例序列:`双马尾:double_ponytail`和`短发:short_hair`。当然,我们自己也可以制作自己的动漫图片,并上传自己的超密集姿势序列或者姿势图像到路径`/content/CoNR/poses/`下.

Step3:选择人物设定表,人物设定表指的是某一个人物多角度/姿势下的手绘图片。官方提供两种示例人物设定表:`双马尾:double_ponytail`和`短发:short_hair`。当然我们也可以选择`自定义:self_defined`并上传自己绘制的人物设定表到路径`/content/CoNR/character_sheet/`下。人物设定表中的人应当是同一个人,且应当和超密集姿势序列尽可能相似,否则生成结果将不可控。例如,对于短发的超密集姿势序列,推荐您使用短发的人物设定表作为输入。

import cv2import numpy as npimport ospath ='/content/CoNR/character_sheet/'files= os.listdir(path)imgs = []for file in files:     if not os.path.isdir(file):          img = cv2.imread(path+"/"+file, cv2.IMREAD_UNCHANGED);          imgs.append(img)print("Num of character sheets:", len(imgs))imgs = np.concatenate(imgs, 1)cv2.imwrite('character_sheet.png', imgs)from IPython.display import ImageImage(filename='character_sheet.png') !mkdir results!python3 -m torch.distributed.launch \--nproc_per_node=1 train.py --mode=test \--world_size=1 --dataloaders=2 \--test_input_poses_images=./poses/ \--test_input_person_images=./character_sheet/ \--test_output_dir=./results/ \--test_checkpoint_dir=./weights/ 

Step4:图片,模型设置完成后,我们就可以进行模型的推理计算了,此模型根据输入的图片生成一系列动漫舞蹈图片,当然这些图片都是连贯的,我们只需要把这些图片使用ffmpeg来制作成视频即可,此模型运行需要很长时间,当然根据个人的电脑配置,本例程运行在Google colab上面,根据你的运行条件,每个人的运行时间不一样,当然你随时可以中断模型运行,使用模型中断前已经生成的图片,便可以制作舞蹈视频了,只是视频长度较短

!ffmpeg -r 30 -y -i ./results/%d.png -r 30 -c:v libx264 output.mp4 -r 30from IPython.display import HTMLfrom base64 import b64encode def show_video(video_path, video_width = 600):  video_file = open(video_path, "r+b").read()  video_url = f"data:video/mp4;base64,{b64encode(video_file).decode()}"  return HTML(f"""<video width={video_width} controls><source src="{video_url}"></video>""") show_video('output.mp4')

Step5:最后,我们使用ffmpeg把模型生成的系列图片来制作成动漫视频,最后,我们预览一下生成的视频即可,当然,生成的视频,可以下载到本地,方便后期进行处理

当然也有在线版本,把人物舞蹈的视频,实时转换成动漫视频,这个可以自行尝试

Transormer模型重点介绍了encoder与decoder,有6个编码器与6个解码器组成,其Transormer模型主要应用在NLP领域,但是随着Transormer模型的大火,其模型成功应用在了CV计算机视觉领域,其Transormer模型,Vision Transormer模型,SWIN Transormer模型都会在如下专栏进行详细动画分享

标签: #同一个动画如何设置多个动画