龙空技术网

AMD也能深度学习+免费AI绘画:StableDiffusion+ROCm部署教程!

HudenJear表人格 595

前言:

当前兄弟们对“anaconda安装onnx”大体比较讲究,看官们都想要剖析一些“anaconda安装onnx”的相关文章。那么小编在网上搜集了一些关于“anaconda安装onnx””的相关资讯,希望看官们能喜欢,看官们一起来学习一下吧!

某国政客扇扇嘴皮子,CN玩硬件和深度学习的圈子里就掀起了一场风暴,这就是著名的嘴皮子效应(误)。没了高性能计算的A100H100倒也能理解,但是美利坚这波把RTX4090禁售了就让人无语了,所以不少做深度学习的老哥都在找替代方案。没了RTX4090之后,完全CUDA应用就只有上一代的RTX3090堪用,但是很多朋友不知道,其实AMD的Radeon系列民用显卡也是能做深度学习的,而且性能也并不差。而且就在不久之前,AMD的11月和12月驱动两次加强了7000系显卡的深度学习能力,DirectML也有提升

DirectML API在Windows和Linux都有对应的AI绘图整合包,也可以使用Olive或者HIP,同时ROCm在Linux上能够替代CUDA做Pytorch或者TensorFlow的GPU加速,算是目前非常有潜力的CUDA替代方案。今天我就来给大家详细说说如何使用大家手中的A卡,来部署深度学习用的ROCm和ONNX,以及如何实现在Windows和Linux上跑AI绘图!

1、选择你的系统和环境

平台的选择会决定显卡用什么样的方式来运行,因为深度学习开发一般都是使用Python的,所以Win和Linux上有比较大的区别。一般玩家肯定是需要Windows来玩游戏的,但是开发老鸟或许更熟悉Linux一些,因此给大家列出下面这些选项

如果是一般玩家,家里有一张A卡,看着AI绘画眼馋,可以直接看第二段的Windows入门级教程。

如果是对于开发比较熟悉的,想要体验性能比较高的AMD显卡深度学习推理,可以看第三段的windows ONNX+Olive,这个也可以用于其他模型的深度学习推理。

如果家里有多的硬盘,可以装双系统或者直接有多余的主机可以装Linux的,可以看第四段的Linux ROCm满血部署方案,这个可以直接作为开发平台使用(优先推荐用这个)

这次我用的配置是我一直以来用作辅机的配置,R9 7900X+RX7900XT,但是换了新的内存和硬盘,如图,这个配置我跑AI绘画和简单的开发是没有问题的,大规模训练肯定还是优先上服务器

从测试上来看,7900XT这张显卡实际上有56T单精度浮点的实力,理论上深度学习能力应该不差,现在ROCm更新之后终于好好优化了这几张顶级的显卡

2、Windows AMD GPU AI绘画教程

这一部分内容很简单,因为ai绘画目前已经有非常多的整合包了,所以直接使用是没有任何问题的。这里使用的整合包是某站大up秋叶地址的包,具体的使用过程和包的选择可以查看他的文章,需要根据自己的平台和想要的版本来进行选择。

因为本次使用的平台是AMD,所以选中的是使用DirectML API的整合包,直接下载之后打开即可。程序会自动检查更新并且安装依赖的.Net6.0,整个UI非常整洁易懂

在使用过程之前,还需要一些小设置,首先是引擎选到GPU上,现在AMD可以直接使用DirectML进行AI图像生成,选自己的显卡即可。显存优化根据自己显卡的显存来判断,一般选择8G优化会比较快,其他的就不用更改,一键启动即可开始AI绘画

可以看到生成过程中,显卡实际上使用最多就是自己的张量核心,不过可惜的是目前DirectML并不能获取满血的性能,需要更高性能的话需要Olive或者使用linux

3、Windows AMD GPU ONNX+Olive使用教程

ONNX即是Open Neural Network Exchange,是为了适应多种不同的深度学习框架而产生的一种通用性深度学习框架,可以处理Keras、Pytorch以及Chainer等一系列不同的模型文件并获得ONNX模型。获得ONNX模型之后就可以使用Windows的ML进行加速了,而AMD与微软一起维护了一个Olive的优化方法,这个方法可以将GPU原本DirectML的调用方法改为使用ONNX+Olive,从而大幅度提高性能

部署方法也不难,首先第一步是安装Conda环境,我推荐使用anaconda,miniconda也可以,用anaconda的GUI会更方便一些。打开conda的prompt.exe,分步执行下面这些命令,即可完成Olive安装

conda create -n onnx python=3.11

conda activate onnx

pip config set global.index-url

pip install olive-ai[gpu]

然后需要安装一个git,这个熟悉代码的朋友应该都知道,我这里就不具体讲述怎么安装了,安装之后重启,然后继续进入conda中onnx环境的prompt.exe,考虑到大部分网友都在本地,所以比官方教程多了换源的步骤

git config --global url.";.insteadOf ";

git clone

cd stable-diffusion-webui-directml

git submodule update --init --recursive

venvScriptsactivate

pip install httpx==0.24.1

webui.bat --onnx --backend directml --precision full --no-half

接下来就进入的是带有onnx的Stable Diffusion,在Olive选项卡中选择Optimizing model with Olive即可获取一个经过优化的模型,在最上方的选项卡中选择这个模型,即可加速AI绘画过程了

性能对比

经过测试,这样的方法能把AI绘画的速度提升到原来的三倍左右,但是仍然不是完全体。使用512x512的大小进行测试,使用DPM++ SDE Karras采样方法,可以看到,在9月的驱动中,直接使用DirectML的话只有1.11次迭代这样的速度,也就是画图一张图20次迭代需要18s左右,如果使用新的12.1驱动,DirectML的性能暴涨到了3.58,画图仅需要不到6s,有超过3倍的提升。如果进一步使用Olive提升速度,则能达到10.71,2s一张出图速度已经非常快了

但这仍然不是AMD深度学习的极限,ROCm目前可以做到完全释放显卡的性能,在简单的深度学习开发上基本能和CUDA平起平坐,也是我最为推荐的一种方式,下面一个章节我来详细介绍一下如何安装部署一个基于ROCm的深度学习环境,并且实现stable diffusion

4、Linux AMD ROCm部署

随着AMD不懈努力,AMD的ROCm on Linux终于形成了一个还不错的环境,是目前仅次于CUDA的一种深度学习API了。而且ROCm在Pytorch以及Keras中的使用方法仍然呼做cuda,所以很多代码是不用更改就能换成ROCm来使用的。而且ROCm有自己的amdgpu-dkms管理,安装上比起一言不合就not found 的cuda要稳定不少,所以我个人是非常推荐目前有A卡的朋友在做开发的过程中使用ROCm作为CUDA的平替

ROCm的部署过程也不复杂,我这里就手把手的来教大家用一下。因为7000系显卡是最新支持的,AMD把这些显卡的应用内核版本限制到了22.04的Linux上以便uptodate,所以首先我们需要准备的是Ubuntu22.04.3版本的系统,可以直接官网下载,具体安装过程我就不赘述了,网上的教程已经非常丰富

开机第一步,使用apt命令对源以及包进行一次更新,然后确认内核版本是否为ROCm所支持的(目前LTS版本是一定支持的,这一步可以省略),然后安装一些一定会用到的应用,比如curl git 和vim这些

sudo apt update

sudo apt install curl vim ffmpeg gfortran libsrdc++-12-dev cockpit openssh-server

uname -a (检查版本用)

按照AMD官方的指引一步一步地安装ROCm,一般来说使用AMDgpudkms是最方便的安装方法,我这里推荐使用5.7版本的ROCm,使用官方的dkms来安装管理这个系统。分步执行下面这些命令,即可安装ROCm。这些包非常大,所以建议耐心等待或者使用更流畅的网络

curl -0 ... 5.7.50701-1_all.deb

sudo apt install ./amdgpu-install_5.7.50701-1_all.deb

sudo amdgpu-install --usecase=hiplibsdk,rocm

sudo usermod -aG video $USER

sudo usermod -aG render $USER

sudo reboot (重启之后才能看到rocm安装好没有)

重启之后,再次打开terminal,就能使用rocminfo命令以及rocm-smi对硬件进行监测了。可以看到ROCM支持的设备一共有三个,分别是CPU、79TXT和核显

rocminfo

watch -n .5 rocm-smi

下一步需要安装miniconda或者anaconda,这个我就不细说了,网上教程非常多。安装之后重启terminal,然后对conda进行换源,并且创建一个针对ROCm的新环境,我这里命名为ROCm57,大家可以自行更改。随后,进入这个环境,更换pip的源,安装深度学习所需要的torch包,这个包也是Stable Diffusion所需要的。有两种方案,一种是安装稳定版的,一种是安装preview版的,我使用的是preview版,也是可以自行选择其中之一

conda config --add channels

conda config --add channels

conda config --add channels

conda create -n rocm57 python=3.11

conda activate rocm57

pip3 config set global.index-url

(安装稳定版)pip3 install torch torchvision torchaudio --index-url

(或者安装预览版)pip3 install --pre torch torchvision torchaudio --index-url

到此为止,这个环境就已经可以使用torch对代码进行调试开发了,rocm的呼唤方法和cuda是一样的,不用特意修改代码

需要Stable diffusion的话,下面就可以使用git clone对Stable Diffusion进行下载,用pip安装依赖。安装好之后就能进行试运行了,试运行的目的是为了检查代码是否能跑通,否则用bash是跑不起来的

git config --global url.";.insteadOf ";

git clone

cd stable-diffusion-webui

pip install -r requirements.txt

HF_ENDPOINT= python launch.py --listen --autolaunch

可以看到这里有一个module错误,这个错误是因为basicSR年久失修没有跟上torch版本导致的,所以我们需要根据自己环境地址,对这个文件进行修改

使用vim命令修改文件,改成如下的格式

sudo vim ~/miniconda3/envs/rocm57/lib/python3.11/site-packages/basicsr/data/degradations.py

下面继续进行测试,一般不会出现报错了,如有报错可以在评论区交流。但是如果网络不佳会出现如下这种下载不了与训练模型的情况,这个情况是非常好解决的,目前网络中SD的预训练模型很多,下载一个喜欢的放一个进去就行,~/stable-diffusion-webui/models/Stable-diffusion/,如果之前操作了win上的整合包,那么要做的就是直接把整个models文件复制过去!非常方便快捷

下面就能启动模型画图了,我这里提供一个便捷的启动脚本和命令。其中有一些需要自己修改,比如HSAversion,你的显卡是7000系的,就用11.0.0,如果是上一代或者上上代就用10.3.0

cat < ~/stable-diffusion-webui/ezlaunch.sh

#!/bin/sh

# select version according to your GPU: RX7000s use 11.0.0; RX6000s5000s use 10.3.0

export HSA_OVERRIDE_GFX_VERSION=11.0.0

# select HIP according to your GPU node: GPU:0, iGPU:1

export HIP_VISIBLE_DEVICES=0

export PYTORCH_HIP_ALLOC_CONF=garbage_collection_threshold:0.8,max_split_size_mb:512

python3 launch.py --listen --opt-split-attention-invokeai --enable-insecure-extension-access --no-half-vae

EOF

然后使用下面这个命令在任意时候都能打开SD服务,如果家在模型完成(出现model loaded),打开本地的0.0.0.0:7860就能使用了

conda activate sd && cd ~/stable-diffusion-webui && bash ezlaunch.sh

大模型+高显存+大图片会让迭代速度下降很多,不过在相同的512x512环境下使用SD的话,14iterations/s的速度可以说是吊着windows上任意方式打的

512x512的图片分辨率不够的话可以提升到1200x1200,迭代速度大概4it/s,只要显存够,那么迭代速度只根据图像大小线性下降,倒也是能接受的

这样的环境是可以进行深度学习开发的,除了系统中指定显卡和版本的语句不一样之外,在pytorch中的使用和CUDA是完全一致的,所以我认为目前ROCm在简单的深度学习开发上,基本可以做到替代CUDA了

5、硬件介绍

本文使用的CPU和主板是AMD R9 7900X+ ProArt X670E-Creator,性能充沛,且内存适配也不错,比如这词用的内存就是7200MHz的,可以直接EXPO ii开机,如果要部署工作站或者开发机的话,也可以选择R9 7900

显卡用的是蓝宝石的超白金RX7900XT,这张显卡是目前蓝宝石最好的7900XT型号,玩游戏基本可以畅玩4K,做深度学习也有20GB的显存,而且价格比79XTX低不少,而且散热不错,个人很喜欢

内存和硬盘是金士顿的RENEGADE 7200MHz 16x2和KC30002T,最近硬盘即将涨价,需要买硬盘的朋友得赶紧了。金士顿的高频灯条RENEGADE造型做得确实非常不错,灯光也可以同步,频率高而且稳定,在X670E上也能直接EXPO开机,我觉得是目前比较值得买的高频DDR5内存

电源是海韵的新Focus GX1000,在经过多次改良之后,海运的新版Focus不仅标准符合了ATX3.0标准,而且也支持12VHPWR接口,面对新的显卡也毫无压力

纯白色的造型并且还送一套压纹线,直接免去了定制线的需求,而且这个线还挺软,走线也没什么压力,用起来很舒服

总结

很多朋友都觉得买了AMD就和深度学习绝缘了,其实并不然,AMD现在不仅在Linux上有ROCm,在Win上使用Olive加速之后,进行模型推理也并不慢。而AI绘画这个原本只有顶级显卡才能跑的项目,现在经过层层优化,也能轻松部署在家用显卡上了。对AI绘画感兴趣的朋友可以赶紧用手上的显卡尝试一下,毕竟现在AMD显卡是真不贵,对比一下某禁售的4090,就只要三分之一的价格就能买到次旗舰我是真觉得不亏

RX7900XT这张显卡我是比较推荐的,一来没有旗舰卡那种维持门面的价格,也不用把频率调校得离谱高,二来这卡用的又是旗舰散热,让显卡的散热爽到飞起,完全不用担心热量压力。而且性能和显存完全够用,进可畅爽玩AI,退可畅爽打游戏,非常理想

感谢大家围观

标签: #anaconda安装onnx