当前位置:   article > 正文

【stable-diffusion史诗级讲解+使用+插件和模型资源】_sd-webui-prompt-all-in-one

sd-webui-prompt-all-in-one

img

前言
以后所有资源模型,都在这个网址公布:https://tianfeng.space/1240.html

要不然东一个西一个难找麻烦

安装:stable diffusion 小白最全详细使用教程
模型最终版:https://blog.csdn.net/weixin_62403633/article/details/131089616?spm=1001.2014.3001.5501

如果安装或者使用有问题,欢迎评论区留言,CSDN博客,知乎都行。本人只分享资源,有问题看到都会解答,而且不会建什么群,拿资源,只要我有的统统公开。只希望看到我的文章对你有点用的话,可以点个赞,评论几句,就十分感谢!!!

一、插件推荐

1.sd-webui-prompt-all-in-one

img

  • 中文输入自动转英文
  • 自动保存使用描述词
  • 一键收藏想要描述词
  • 翻译接口超多种选择
  • -键粘贴删除描述词

img

2.sd-webui-mov2mov(AI视频转换)

https://github.com/Scholar01/sd-webui-mov2mov

img

参数如下:感觉没有40显卡玩不了,如果显卡比较好,可以试试(movie frame为每秒视频帧数)

img

img

3.Deforum

直接在扩展搜索安装

使用参数如下,我只给出改了的部分,其他默认,最大帧数就是你要制作多少帧的视频,模型可以选择在第几帧开始使用哪个大模型,必须自已已经安装的,图片大小自己看着办,显卡好可以往上调

img

提示词我在,第0,100,200帧分别写了提示词,如果要改,按照格式改

img

运行参数就是控制镜头移动,xy控制上下左右,噪声越小,图片细腻度越高

img

30为每秒的帧数,不保留中间生成图片,

img

效果:https://www.bilibili.com/video/BV1TM4y1q7pp/?vd_source=69a72fa3fe0bf11ff1588ccaeb91737a

4.sd-dynamic-thresholding

支持使用更高的 CFG 比例而不会出现颜色问题

img

网址:https://github.com/mcmonkeyprojects/sd-dynamic-thresholding

在扩展页面网址安装,重启

img

效果:可以在加大CFG同时增加更多细节而不崩坏img

5.推荐一种生成AI视频的方法

准备好你的视频,下载pr,一款Adobe公司旗下的产品,处理视频的,ps处理照片的,把视频按照你想要的大小和格式导出,一般是720p,png格式导出,就是把视频一帧一帧取出,以图片方式放在文件夹

img

填写提示词,把输入目录(png目录),输出自己制定,就会把图片一帧一帧渲染,然后把渲染完的文件重新在pr组成视频。这种方法可能比上面对显卡要求低点。

6.Stable-Diffusion-Webui-Civitai-Helper

https://github.com/butaixianran/Stable-Diffusion-Webui-Civitai-Helper/blob/main/README.cn.md

老规矩,zip下载解压安装,扩展网址安装,还是git clone都行,

1.功能(官方文档)
  • 扫描所有模型,从Civitai下载模型信息和预览图
  • 通过civitai模型页面url,连接本地模型和civitai模型信息
  • 通过Civitai模型页面url,下载模型(含信息和预览图)到SD目录或子目录。
  • 下载支持断点续传
  • 批量检查本地模型,在civitai上的新版本
  • 直接下载新版本模型到SD模型目录内(含信息和预览图)
  • 修改了内置的"Extra Network"模型卡片,每个卡片增加了如下功能按钮:
推荐阅读
相关标签