当前位置:   article > 正文

ComfyUI-常用插件列表(持续更新)_comfyui插件

comfyui插件

管理方法

安装 ComfyUI Manager
https://www.comflowy.com/zh-CN/preparation-for-study/install-comfyui-manager

视频处理插件

https://github.com/ltdrdata/ComfyUI-Impact-Pack
https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved
https://github.com/Fannovel16/comfyui_controlnet_aux/

功能插件

汉化

https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation

ComfyUI_Custom_Nodes_AlekPet

中文提示词插件,可以用中文输入生成图片的提示词,进一步降低文生图的使用门槛。插件地址:GitHub - AlekPet/ComfyUI_Custom_Nodes_AlekPet: Custom nodes that extend the capabilities of Comfyui

ComfyUI-Custom-Scripts

补全提示词,对齐网格
https://github.com/pythongosssss/ComfyUI-Custom-Scripts

comfyui-workspace-manager

工作空间管理插件。
https://github.com/11cafe/comfyui-workspace-manager

ComfyUl_InstantlD

需要注意里面的模型放置的目录
https://github.com/cubiq/ComfyUI_InstantID

PuLID_ComfyUI

https://github.com/cubiq/PuLID_ComfyUI

IC-Light控制图像照明光影融合模型

介绍

https://github.com/kijai/ComfyUI-IC-Light-Wrapper
参考资料
https://heehel.com/aigc/ic-light.html
https://heehel.com/aigc/kijai-ic-light.html

was-node-suite-comfyui

https://github.com/WASasquatch/was-node-suite-comfyui

comfyui_controlnet_aux

depth any thing

depth_anything_vitl14.pth
depth_anything_vitb14.pth
depth_anything_vits14.pth
模型目录:
/home/llm/hddd/comfyuiDocker/storage/ComfyUI/custom_nodes/comfyui_controlnet_aux/ckpts
HG下载方式
https://huggingface.co/spaces/LiheYoung/Depth-Anything/tree/main/checkpoints
国内下载方式(下载bin后对应改名,有点麻烦)
https://hf-mirror.com/LiheYoung/depth_anything_vitl14/tree/main

https://huggingface.co/spaces/LiheYoung/Depth-Anything/tree/main/checkpoints_metric_depth

kjnode里面的clip语义分割
因为还是有自动下载模型的问题,所以手动下载了模型
放倒了这个文件夹下,通过,ComfyUI/models/clip_seg

efficiency-nodes-comfyui

https://github.com/jags111/efficiency-nodes-comfyui
注意:此节点最初由 LucianoCirino 创建,但原始存储库不再维护,并已由新的维护者分叉。要使用分叉版本,您应该卸载原始版本并重新安装此版本。

ComfyUI wrapper for Kwai-Kolors

Kolors是一个基于潜在扩散的大规模文本到图像生成模型,由快手Kolors团队开发。经过数十亿个文本-图像对的训练,Kolors 在视觉质量、复杂语义准确性以及中英文字符的文本渲染方面表现出优于开源和专有模型的显着优势。此外,Kolors支持中文和英文输入,在理解和生成中文特定内容方面表现出色。
这个节点安装的时候会更新python环境。
模型国内镜像下载:
https://hf-mirror.com/Kwai-Kolors/Kolors/tree/main
Github:
https://github.com/kijai/ComfyUI-KwaiKolorsWrapper
B站介绍视频:
https://www.bilibili.com/video/BV1d1421b7FQ/?buvid=XU279C02838676FB2782DCC07409581314676

ComfyUI-Prompter-fofrAI

GIthub:https://github.com/fofr/ComfyUI-Prompter-fofrAI
介绍:
随机替换提示词节点,可以自建目录和词库文件,然后提示词里的一些部分可以自定义随机替换,也就是用你的词库里的词随机替换进来。还有一些其他用法,还没研究。
B站介绍:
https://www.bilibili.com/video/BV1gE421N7VT

MimicMotion

简介:具有自信感知姿势指导的高质量人体运动视频生成。说人话介绍就是,用一张静态图片和一段动态动作视频,就可以让静态图片动起来。说装13的话就是,用一段舞蹈视频,就可以让一个图片里的美女一样的动作跳起来。

注意:这个节点因为会更新python环境,会与很多节点冲突,很难确定安装完以后会不会导致一些节点失效的问题,谨慎测试做好备份。

GIthub:
https://github.com/Tencent/MimicMotion
https://github.com/AIFSH/ComfyUI-MimicMotion
模型下载:
MimicMotion_1-1.pth
https://hf-mirror.com/ixaac/MimicMotion/tree/main

stabilityai/stable-video-diffusion-img2vid-xt-1-1
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt-1-1
环境需求:
1,需要ffmpeg
2,现阶段建议torch2.1.0+cu121+xformers0.0.22.post7(2024年7月)
经验:
如果显存小,则需要调小tile size和decode chunk size两项参数。

comfyui-reactor

简介:
智能换脸。
GIthub:https://github.com/Gourieff/comfyui-reactor-node
模型:
可以考虑的国内下载地址
https://hf-mirror.com/menglaoda/_insightface/tree/main
https://hf-mirror.com/datasets/Gourieff/ReActor/tree/main/models

coderformer的最新模型
https://github.com/sczhou/CodeFormer/releases

很多因为墙问题无法自动下载模型的,官方又没有写模型放在哪里,然后就懵逼了。其实这个代码里有写,甚至又hg的下载地址。
https://github.com/Gourieff/comfyui-reactor-node/blob/main/nodes.py
inswapper_128.onnx模型放在ComfyUI\models\insightface目录下

detection_Resnet50模型会从这里自动下载
https://github.com/xinntao/facexlib/releases/download/v0.1.0/detection_Resnet50_Final.pth,自动放到 ComfyUI/models/facedetection 目录下。

注意:
自从0.4.0版本以后, safetensors模型文件可以放在“ComfyUI\models\reactor\faces”目录下了。

ComfyUI-N-Sidebar

简介:超级方便的左侧查找节点的工具栏,方便查找。
https://github.com/Nuked88/ComfyUI-N-Sidebar

ComfyUI-CLIPSeg

语义分割和自动抠图用。
https://github.com/time-river/ComfyUI-CLIPSeg
安装方法:
节点管理器安装会报错,git clone方式手动安装,然后把clipseg.py这个文件放到custom_nodes目录下。
然后还需要下载模型,作者又写的是自动hg下载,坑死咱们这群墙内人士了。
下载地址:
https://hf-mirror.com/CIDAS/clipseg-rd64-refined/tree/main
放到这个目录下,CIDAS/clipseg-rd64-refined

ComfyUI-WD14-Tagger

提示词反推。
Github:https://github.com/pythongosssss/ComfyUI-WD14-Tagger

经验:
很烦,本身是支持自动下载的,但是hg墙问题,国内又是麻烦事。
尝试修改了代码几个地方,想从国内hf镜像下载,但是没改对,还是老从国外hf下载。
索性手动下载,需要从https://hf-mirror.com/SmilingWolf这里,一个一个进目录下载,下载的模型都是叫model.onnx,还得自己根据名称手动重命名,例如
wd-convnext-tagger-v3.onnx,其他类似。
下载的时候,还得把csv文件一起下载下来,然后重命名,这个事情我一开始遗漏了,坑死我了……
索性不用这个节点了,用kjnode下面的。

smZNodes:为ComfyUI打造的强大定制节点库

【项目介绍】 smZNodes是一个专为ComfyUI设计的自定义节点集合,它提供了多样化的功能,以增强您的创作体验。其中最引人注目的特性是CLIP Text Encode++,一个能够与stable-diffusion-webui完美兼容的文本编码工具。

【项目技术分析】 CLIP Text Encode++节点采用了先进的解析和编码算法,确保在ComfyUI中创建的图像与stable-diffusion-webui产生的结果一致。该节点支持多种功能,如提示编辑(包括交替单词)、AND关键词以及BREAK关键词。此外,它还提供权重归一化选项,并且可以选择性地添加embedding:标识符。

【项目及技术应用场景】 无论您是数字艺术家、设计师还是AI实验者,smZNodes都是提升工作效率的理想工具。利用CLIP Text Encode++,您可以轻松地实现跨平台的图像生成一致性,尤其是在处理复杂的视觉生成任务时,可以精确控制模型对输入文本的理解和响应。

【项目特点】

高度兼容性:CLIP Text Encode++节点确保了与stable-diffusion-webui的完全兼容性,使得在两个平台上生成的图像可复现。
多种解析器:支持多种不同的解析策略,包括ComfyUI默认、Comfy++、A1111等,满足不同需求。
动态设置:通过“Settings”节点进行实时微调,可以根据需要调整各种参数,如种子值、采样器设置等,以获得更一致的结果。
灵活安装:支持通过ComfyUI Manager一键安装,也可以直接克隆或手动下载,安装过程简单快捷。
更新便捷:提供方便的更新机制,无需繁琐操作即可保持最新版本。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/951981
推荐阅读
相关标签
  

闽ICP备14008679号