当前位置:   article > 正文

Stable Diffusion在阿里云PAI DSW平台实践,送浩浩妈妈二次元_controlnet - warning - a1111 inpaint and controlne

controlnet - warning - a1111 inpaint and controlnet inpaint duplicated. fall

Stable Diffusion在阿里云PAI DSW平台实践,送浩浩妈妈二次元

环境选择

内容说明
镜像stable-diffusion-webui-develop:1.0-pytorch2.0-gpu-py310-cu117-ubuntu22.04
镜像区域杭州、上海、北京、深圳
环境安装在DSW Gallery中找到“AI扩图神器,放飞你的想象力”,点击“在DSW中打开”按钮,进入后已提供了额库下载、基础模型下载、webui运行等基础

扩展安装

在WebUI中进入扩展,安装需要的扩展插件。

  • 注:如果默认列表中没有,可以通过“从网址安装”自行安装
    在这里插入图片描述

安装完毕后,模型请单独下载。
建议模型在个人电脑上下载后,再上传到镜像。(懂的都懂)

扩展安装,以SadTalker为例

  • 通过网址安装。大家自行百度。
    安装完毕后,需要在appfolder/extensions/SadTalker中分别创建checkpoints、checkpoints/hub、gfpgan/weights目录。
  • SadTalker所需模型自行下载后,上传到指定目录。(SadTalker官网readme里提供了百度网盘地址)
# mv mapping_00109-model.pth.tar checkpoints/
# mv mapping_00229-model.pth.tar checkpoints/
# mv SadTalker_V0.0.2_256.safetensors checkpoints/
# mv SadTalker_V0.0.2_512.safetensors checkpoints/

mv GFPGANv1.4.pth checkpoints/hub/checkpoints/

# mv GFPGANv1.4.pth gfpgan/weights/
# mv alignment_WFLW_4HG.pth gfpgan/weights/
# mv detection_Resnet50_Final.pth gfpgan/weights/
# mv parsing_parsenet.pth gfpgan/weights/
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 安装requirements
pip install -r requirements.txt
  • 1
  • 执行速度
    8秒音频,90秒。
    70秒音频,40分钟。

环境问题

最近几天在启动实例时,时间非常漫长,原因很可疑(绝对不是欠费)。大家自己看:
在这里插入图片描述

  • 错误信息:

Creating DswInstance timeout, pod event is Successfully assigned / to vk-nodepool-cn-hangzhou-d-2cbtg-0

  • 问题分析:
    可能是遇到了高峰时段,忙不过来。错峰再次启动,成功。

二次元换衣服

原图不提供了,原图是浩浩妈妈在狂蟒之灾电影中的片段,大家脑补。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

图生图提示词信息片段:

masterpiece,high quality,pajamas, yellow,hands,Negative prompt: EasyNegativeSteps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7

使用到了ControlNet。

2024-04-21 02:30:35,819 - ControlNet - INFO - unit_separate = False, style_align = False
2024-04-21 02:30:35,819 - ControlNet - WARNING - A1111 inpaint and ControlNet inpaint duplicated. Falls back to inpaint_global_harmonious.
2024-04-21 02:30:35,819 - ControlNet - INFO - Loading model from cache: control_v11p_sd15_inpaint [ebff9138]
2024-04-21 02:30:35,819 - ControlNet - INFO - using mask
2024-04-21 02:30:35,821 - ControlNet - INFO - Using preprocessor: inpaint
2024-04-21 02:30:35,821 - ControlNet - INFO - preprocessor resolution = 512
2024-04-21 02:30:35,851 - ControlNet - INFO - ControlNet Hooked - Time = 0.034852027893066406
  0%|                                                    | 0/12 [00:00<?, ?it/s]
 17%|███████▎                                    | 2/12 [00:00<00:00, 10.86it/s]
 33%|██████████████▋                             | 4/12 [00:00<00:00, 10.76it/s]
 50%|██████████████████████                      | 6/12 [00:00<00:00, 10.72it/s]
 67%|█████████████████████████████▎              | 8/12 [00:00<00:00, 10.70it/s]
 83%|███████████████████████████████████▊       | 10/12 [00:00<00:00, 10.54it/s]
100%|███████████████████████████████████████████| 12/12 [00:01<00:00, 10.61it/s]

Total progress: 100%|███████████████████████████| 12/12 [00:01<00:00,  7.47it/s]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

二次元

在这里插入图片描述

其他文章推荐:

专栏 : 人工智能基础知识点

专栏:大语言模型LLM

序号文章
1LLM概览:从起源至LangChain的资源整合,及对NLP领域的深远影响(LLM系列01)
2大语言模型LLM发展历程中的里程碑项目:国内外技术革新重塑自然语言处理(LLM系列02)
3大语言模型LLM分布式训练:大规模数据集上的并行技术全景探索(LLM系列03)
4大语言模型LLM分布式训练:TensorFlow攻略与深度解析(LLM系列04)
5大语言模型LLM分布式训练:TensorFlow下的大语言模型训练实践(LLM系列05)
6大语言模型LLM分布式训练:PyTorch下的分布式训练(LLM系列06)
7大语言模型LLM分布式训练:PyTorch下的大语言模型训练流程(LLM系列07)
8大语言模型LLM微调技术深度解析:Fine-tuning、Adapter-Tuning与Prompt Tuning的作用机制、流程及实践应用(LLM系列08)
9大语言模型LLM参数微调:提升6B及以上级别模型性能(LLM系列009)
10大语言模型LLM推理加速主流框架(LLM系列10)
11大语言模型LLM推理加速:LangChain与ChatGLM3-6B的推理加速技术(LLM系列11)
12大语言模型LLM推理加速:Hugging Face Transformers优化LLM推理技术(LLM系列12)
13大语言模型LLM分布式框架:关键技术、流程与实施步骤(LLM系列13)
14大语言模型LLM分布式框架:PyTorch Lightning框架(LLM系列14)
15大语言模型LLM分布式框架:AllReduce算法与Parameter Server(LLM系列15)
16大语言模型LLM资源优化与部署:模型压缩与剪枝技术、量化推理技术(LLM系列16)
17大语言模型LLM资源优化与部署:知识蒸馏与模型精简(LLM系列17)
18大语言模型LLM算法框架演进:从RNN至Transformer架构(LLM系列18)
19大语言模型LLM算法框架演进:基于Hugging Face Transformers构建LLM应用(LLM系列19)
20大语言模型LLM编译优化:LLVM与TVM(LLM系列20)
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/632735
推荐阅读
相关标签
  

闽ICP备14008679号