赞
踩
segment这是一个正在进行的项目,旨在编辑和生成图像中的任何内容,由Segment Anything、ControlNet、 BLIP2、Stable Diffusion等提供支持。
一个有趣的项目。非常欢迎任何形式的贡献和建议!
2023/04/12 - 文本引导编辑的初始版本在sam2groundingdino_edit.py
(对象级)和sam2vlpart_edit.py
(部件级)中。
2023/04/10 - edit-anything 的初始版本在sam2edit.py
.
2023/04/10 - 我们将预训练模型转换为扩散器样式,使用时自动加载预训练模型sam2image_diffuser.py
。现在您可以轻松地将我们的预训练模型与不同的基础模型结合起来!
2023/04/09 - 我们发布了一个基于 StableDiffusion 的 ControlNet 预训练模型,该模型生成由 SAM 分割调节的图像。
突出特点:
文本接地:“狗头”
人类提示:“可爱的狗”
文本接地:“猫眼”
人类提示:“一只可爱的小人形猫”
文本接地:“长凳”
人类提示:“长凳”
人类提示:“灿烂的夕阳天空,红砖墙”
人类提示:“湖边的椅子,晴天,春天” edit-anything 的初始版本。(我们将很快添加更多对蒙版的控制。)
BLIP2 Prompt: "a large white and red ferry"
(1: input image; 2: segmentation mask; 3-8: generated images.)
BLIP2 提示:“多云的天空”
BLIP2提示:“一架黑色无人机在蓝天飞翔”
注意:由于 SAM 数据集中的隐私保护,生成的图像中的人脸也被模糊了。我们正在训练具有清晰图像的新模型来解决这个问题。
在 SAM 数据集中使用 85k 个样本训练的条件生成。
使用来自 LAION 和 SAM 的更多图像进行训练。
对不同蒙版的交互控制以进行图像编辑。
使用Grounding DINO进行类别相关的自动编辑。
ChatGPT 引导图像编辑。
创建环境
conda env create -f environment.yaml
conda activate control
安装 BLIP2 和 SAM
将这些模型放在models
文件夹中。
pip install git+https://github.com/huggingface/transformers.git
pip install git+https://github.com/facebookresearch/segment-anything.git
# For text-guided editing
pip install git+https://github.com/openai/CLIP.git
pip install git+https://github.com/facebookresearch/detectron2.git
pip install git+https://github.com/IDEA-Research/GroundingDINO.git
下载预训练模型
# Segment-anything ViT-H SAM model.
cd models/
wget https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth
# BLIP2 model will be auto downloaded.
# Part Grounding Swin-Base Model.
wget https://github.com/Cheems-Seminar/segment-anything-and-name-it/releases/download/v1.0/swinbase_part_0a0000.pth
# Grounding DINO Model.
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha2/groundingdino_swinb_cogcoor.pth
# Get edit-anything-ckpt-v0-1.ckpt pretrained model from huggingface.
# No need to download this if your are using sam2image_diffuser.py!!! But please install safetensors for reading the ckpt.
https://huggingface.co/shgao/edit-anything-v0-1
运行演示
python sam2image_diffuser.py
# or
python sam2image.py
# or
python sam2edit.py
# or
python sam2vlpart_edit.py
# or
python sam2groundingdino_edit.py
如果您有 GUI 来运行 gradio 演示,请在这些文件中设置“use_gradio = True”。
dataset_build.py
。tool_add_control_sd21.py
。sam_train_sd21.py
。本项目基于:
Segment Anything , ControlNet , BLIP2 , MDT , 稳定扩散, 大规模无监督语义分割, Grounded Segment Anything:从对象到零件, Grounded-Segment-Anything
感谢这些惊人的项目!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。