当前位置:   article > 正文

stable diffusion在server上的部署测试_stabilityai/sd-vae-ft-mse does not appear to have

stabilityai/sd-vae-ft-mse does not appear to have a file named config.json

SD infinite canvas

Automatic1111 vs InvokeAI

  • Automatic1111 vs InvokeAI - pros and cons
  • stablediffusion-infinity
    该repo的问题是已经2年没更新,它的依赖有问题,运行也有问题
    TypeError: EventListener._setup.<locals>.event_trigger() got an unexpected keyword argument '_js'
    这个我解决不了解决不了就删除这几行然后还有transformers版本问题(不楞subfolder)stabilityai/sd-vae-ft-mse does not appear to have a file named config.json.
    从评论来说,InvokeAI的操作更简单,所以先试一下
    qnmd invoke,还是automatic1111适合劳资
    qnmd automatic1111根本不好弄outpainting

install

Prerequisites

  • running Fedora Linux 38 (Server Edition)
    • gpu: 3060 laptop 12G
    • ram: 16g (估计8G够了)
    • disk: 256G (模型多就自己加)
    • Software updates就当看不见,千万别更新
  • nvautoinstall
  • NVIDIA CONTAINER TOOLKIT
    • curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
    • sudo yum install yum-utils
    • sudo yum install -y nvidia-container-toolkit
    • 记得重启(主要是为了nvautoinstall的重启,要不然cuda不楞卡)
    • nvidia-smi
  • Development Tools
    • 不安装也行,费时间也没用,这次用不到cmake
  • docker
    • 挖去,docker又更新了安装方式,ubuntu用多了的后遗症
    • 记得执行post-install
  • miniconda
    • miniconda安装完了记得选init

至此已经完成了Prerequisites,网络好+CPU好的话0.5hrs足够

InvokeAI

InvokeAI Repo
InvokeAI有docker,所以可以docker

  • gitclone太慢了
  • docker安装中:hg反正tmd没法访问
  • nm没给我docker compose文件啊
  • tmd daemon.json 位置不对啊
  • 用这个算了export DOCKER_BUILDKIT=1
  • wiki说明和readme.md它不一样啊,虽然也还是docker compose up -d
  • 不知道host参数怎么传递进去
  • 一个InvokeAI的image可能就10G了
  • 我傻了,fedora默认的就是9090的管理,要把端口映射到9091

至此已经完成了InvokeAI安装,网络好的话1hrs足够
不要问[Errno 101] Network is unreachable怎么解决

  • 根据需求使用screen
  • 启动环境 conda activate invokeai
  • 启动invokeai invokeai-web --port 9091 --host 0.0.0.0

更新:最简单的方法是使用Ubuntu,然后使用安装脚本,整个过程只会消耗大概4G流量,不会怎么下载模型,所以可以放心。不过如果要下载模型的话,使用脚本下载大概是30G左右。

AUTOMATIC1111

AUTOMATIC1111

  • 还是乖乖的滚回AUTOMATIC1111吧,球球了

  • 还是乖乖的滚回ubuntu吧,球球了

  • 一个bash run.sh就搞定了
    git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
    cp stable-diffusion-webui/webui.sh .
    sudo apt-get install google-perftools
    bash webui.sh

  • 如果你在国内:
    sudo apt install ubuntu-drivers-common samba cifs-utils -y
    ubuntu-drivers devices
    sudo apt install nvidia-driver-535-server
    sudo nano /etc/samba/smb.conf

    [sambashare]
    comment = ubuntu
    path = /home/ubuntu
    read only = no
    browsable = yes

    sudo service smbd restart
    sudo ufw allow samba
    sudo smbpasswd -a ubuntu
    直接在Windows下操作就可以,把东西下载下来复制粘贴到smb文件夹就可以直接用了,还是老问题,hg没法用
    这点东西只能保证重复安装的时候不用下载模型
    clone repo的时候还是要加proxy

  • 还是得直接加proxy
    export http_proxy=username:password@proxyhost.com:8080
    export https_proxy=username:password@proxyhost.com:8081
    export no_proxy="localhost, 127.0.0.1, ::1"
    备注:要记得导入http和https,因为github上面的模型都是https协议,no_proxy不加的话有时候会报错找不到地址

  • 需要下载的东西:
    sd模型只需要最大的那个或者从civitai下载ckpt
    vit用脚本下载就行,文件多没办法,hg有下载脚本在页面上端

  • 把真正的时间留给需要的地方(比如找素材和提示词)

  • SD,起洞
    打开端口:sudo ufw allow 7860
    screen:screen
    起洞:bash webui.sh --listen --xformers --enable-insecure-extension-access
    没有git的时候没法更新,这个不重要,更不更新也差不多

infinity要复杂一些,就用Windows了

  • infinity安装
  • 按照步骤操作
  • 根本没法操作,故作罢

models

一些备注

  • 记得在标注的时候把自己的特殊标记(比如模型名"ABCD")放到添加tag里面去;

  • 在invokeai里面添加模型可以用samba;

  • 模型可以使用sd-v1-5,最好加个IP Adapter,用invoke的自动添加模型,其他方法很难;
    invoke设置

  • 记得调整epoch和batch;
    tensorboard

  • 最重要的事情:材料好好准备,材料不好的话练出来的也不行,如果是国画或者工笔画最好把题字和章都扣掉(这真的很重要)
    outpainting输出

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/360756
推荐阅读
相关标签
  

闽ICP备14008679号