当前位置:   article > 正文

基于Controlnet和SDwebui实现草图转细节图_sd webui 继续细化

sd webui 继续细化

其实不是很复杂,但网上的技术教程总是充斥的营销号的味道,令人不适。。。

先部署SDwebui,直接去github网页上下载即可

https://github.com/AUTOMATIC1111/stable-diffusion-webui

然后windows用户应该是点webui-user.bat,ubuntu点webui-user.sh

然后会自动下载一些文件,但是需要翻墙,如果下载失败的话,可以尝试以下步骤

pycharm打开文件夹,因为点webui-user.bat会自动设置一个虚拟环境, 所以不用再conda create了,直接激活虚拟环境,然后

pip install -r requirements_versions.txt

其中关于torch的部分需要注意一下,可能安装的是无cuda版本的,可以自己去pytorch官网下载自己的版本。

然后pycharm终端翻墙的方法是,后面的12333改成你自己梯子的post,然后再在终端里运行webui-user.bat,会下载sd的模型权重,下载完毕后会自动加载模型生成网页页面。

set HTTP_PROXY=http://127.0.0.1:12333

set HTTPS_PROXY=http://127.0.0.1:12333

注意使用的时候需要关闭梯子,不然会报错,

Something went wrong Expecting value: line 1 column 1 (char 0)

我这是已经安装了controlnet的sd-webui,找到中间的URL http://127.0.0.1:7860,输入进自己的浏览器就可以使用了。

 尝试了以下文字生成图像的速度还可以。

 

再之后是controlnet,笔者先安装了其本体

https://github.com/lllyasviel/ControlNet

下载文件夹后,

  1. conda env create -f environment.yaml
  2. conda activate control

 但是笔者在安装 environment.yaml的时候总是会中断,没办法只能分两步,先创建虚拟环境,安装好cuda,或者直接用sd的虚拟环境也可以。

然后pip install -r requirements.txt, requirements.txt内容如下

  1. gradio==3.16.2
  2. albumentations==1.3.0
  3. opencv-contrib-python==4.3.0.36
  4. imageio==2.9.0
  5. imageio-ffmpeg==0.4.2
  6. pytorch-lightning==1.5.0
  7. omegaconf==2.1.1
  8. test-tube>=0.7.5
  9. streamlit==1.12.1
  10. einops==0.3.0
  11. transformers==4.19.2
  12. webdataset==0.2.5
  13. kornia==0.6
  14. open_clip_torch==2.0.2
  15. invisible-watermark>=0.1.5
  16. streamlit-drawable-canvas==0.8.0
  17. torchmetrics==0.6.0
  18. timm==0.6.12
  19. addict==2.4.0
  20. yapf==0.32.0
  21. prettytable==3.6.0
  22. safetensors==0.2.7
  23. basicsr==1.4.2

然后下载去huggingface下载模型权重放到models文件夹里

lllyasviel/ControlNet · Hugging Face

python gradio_scribble2image.py

再运行的时候也需要保证终端翻墙,来下载sd的模型权重,有些许不同的是,controlnet最后的URL是0.0.0.0,这个是需要修改的,直接搜索0.0.0.0,将自己运行的程序对应的改成localhost

 

但是在实际使用的时候,程序会处于一直推理的状态,且没有结果,而且GPU占用很高,但是一直没变化,和issues492的情况类似,Inference going on forever and no error messages,笔者目前还没找到解决方案,故只能选用sd-webui的controlnet扩展,如果这个问题解决了后续会更新。

上述问题已解决,请保证自己的python版本大于3.8,且gradio版本较新

根据我实测,controlnet的代码是可以运行的,应该是它自带的gradio gui交互有问题,有能力的可以扒代码自己重新写一个(我后续会做这件事

GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet

这里比较看运气,因为这个git比较小,不用翻墙有时候也能下载下来,但有时候会报错...

实在不行,就直接将文件夹下载下来放到extensions里

然后去这里下载模型权重

 lllyasviel/ControlNet-v1-1 at main (huggingface.co)

 最后讲一下使用过程,首先enable,然后control type点scribble即可,

prompt这里简单写一个turtle,当然可以增加描述来获得更好的效果,点击Generate 

 

生成的图片效果

最后思考一下技术的实际应用,目前看来这个技术用于装修草图直接生成效果图效果非常好,也就是场景生成应用价值比较大,因为场景生成对于细节的要求没有那么高的指定性,此外,对于人物的生成效果也可以接受,但很显然还是需要人来做最后的微调步骤。

后续计划找不同风格的sd来做实验,做个总结,目前网络上信息量已经非常爆炸了,sd的营销号也非常多,总是吹嘘会取代人,会失业,但实际上不管人工智能如何,最后总还是需要人来做最后的微调步骤,只是减轻工作量罢了,解放生产力,毕竟只有人才能筛选出真正的优质内容,而生成却是良莠不齐的,当然controlnet从很大程度上还是推进了优质内容的诞生,因为人可以控制中间的生成步骤。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/312890
推荐阅读
相关标签
  

闽ICP备14008679号