赞
踩
参数 | 含义 |
---|---|
-f | 允许以root身份运行;在webui之外实现 |
–update-all-extensions | launch.py参数:启动程序时下载所有扩展的更新 |
–skip-python-version-check | launch.py参数:不检查python版本 |
–skip-torch-cuda-test | launch.py参数:不检查CUDA是否能够正常工作 |
–reinstall-xformers | launch.py参数:安装适当版本的xformer,即使您已经安装了某个版本 |
–reinstall-torch | launch.py参数:即使已经安装了相应版本的torch,也要安装该版本 |
–update-check | launch.py参数:chck用于启动时的更新 |
–tests | launch.py参数:在指定的目录中运行测试 |
–no-tests | launch.py参数:即使指定了–tests选项,也不要运行测试 |
–skip-install | launch.py参数:跳过包的安装 |
–data-dir | 存储所有用户数据的基本路径 |
–config | 构造模型的配置路径 |
–ckpt | 稳定扩散模型的检查点路径;如果指定,则该检查点将添加到检查点列表中并加载 |
–ckpt-dir | 具有稳定扩散检查点的目录路径 |
–vae-dir | 包含VAE文件的目录的路径 |
–gfpgan-dir | GFPAGAN目录 |
–gfpgan-model | GFPAGAN模型文件名 |
–no-half | 不要将模型切换为16位浮点 |
–no-half-vae | 不要将VAE模型切换为16位浮点 |
–no-progressbar-hiding | 不要在gradio UI中隐藏进度条(我们隐藏它是因为如果浏览器中有硬件加速,它会减慢ML) |
–max-batch-count | UI的最大批计数值 |
–embeddings-dir | 用于文本反转的embeddings目录(默认值:embeddings) |
–textual-inversion-templates-dir | 具有文本反转模板的目录 |
–hypernetwork-dir | 超网络目录 |
–localizations-dir | 本地化目录 |
–allow-code | 允许从webui执行自定义脚本 |
–medvram | 实现稳定的扩散模型优化,为低VRM使用率牺牲一点速度 |
–lowvram | 实现稳定的扩散模型优化,以牺牲大量速度实现极低的VRM使用 |
–lowram | 将稳定的扩散检查点权重加载到VRAM而不是RAM |
–always-batch-cond-uncond | 使用–medvram或–lowvram禁用启用的cond/uncod批处理以节省内存 |
–unload-gfpgan | 什么都不做 |
–precision | 以此精度进行评估 |
–upcast-sampling | 上行采样。没有效果——没有一半。通常会产生类似的结果——没有一半在使用较少内存的情况下具有更好的性能 |
–share | 对gradio使用share=True,并通过其网站访问UI |
–ngrok | ngrok-authtoken,gradio的替代方案–share |
–ngrok-region | ngrok应该启动的区域 |
–enable-insecure-extension-access | 启用扩展选项卡,而不考虑其他选项 |
–codeformer-models-path | 包含代码形成器模型文件的目录的路径 |
–gfpgan-models-path | 带有GFPAGAN模型文件的目录路径 |
–esrgan-models-path | 带有ESRGAN模型文件的目录的路径 |
–bsrgan-models-path | 包含BSRGAN模型文件的目录的路径 |
–realesrgan-models-path | 带有RealESRGAN模型文件的目录的路径 |
–clip-models-path | 包含CLIP模型文件的目录的路径 |
–xformers | 为交叉关注层启用xformer |
–force-enable-xformers | 为交叉关注层启用xformer,而不管检查代码是否认为您可以运行它;如果此操作失败,请不要生成错误报告 |
–xformers-flash-attention | 启用具有Flash Attention的xformer以提高再现性(仅支持SD2.x或变体) |
–deepdanbooru | 什么都不做 |
–opt-split-attention | force实现了Doggett的跨注意力层优化。默认情况下,火炬棍打开 |
–opt-sub-quad-attention | 实现内存高效的次二次交叉注意层优化 |
–sub-quad-q-chunk-size | 查询块大小用于次二次交叉关注层优化 |
–sub-quad-kv-chunk-size | kv块大小用于次二次交叉注意层优化使用 |
–sub-quad-chunk-threshold | 使用分块的次二次交叉关注层优化的VRAM阈值的百分比 |
–opt-split-attention-invokeai | force支持InvokeAI的跨注意力层优化。默认情况下,当cuda不可用时,它处于打开状态 |
–opt-split-attention-v1 | 启用旧版本的分散注意力优化,该优化不会消耗它能找到的所有VRAM |
–opt-sdp-attention | 实现缩放点积交叉关注层优化;需要PyTorch 2* |
–opt-sdp-no-mem-attention | 实现缩放点积跨关注层优化,无需内存高效关注,使图像生成具有确定性;需要PyTorch 2* |
–disable-opt-split-attention | 强制禁用跨注意力层优化 |
–disable-nan-check | 不要检查生成的图像/潜在空间是否具有nan;适用于在CI中不带检查点的情况下运行 |
–use-cpu | 使用CPU作为指定模块的torch |
–listen | 以0.0.0.0作为服务器名称启动gradio,允许响应网络请求 |
–port | 使用给定的服务器端口启动gradio,对于<1024的端口,您需要root/admin权限,如果可用,则默认为7860 |
–show-negative-prompt | 什么都不做 |
–ui-config-file | 用于ui配置的文件名 |
–hide-ui-dir-config | 从webui隐藏目录配置 |
–freeze-settings | 禁用编辑设置 |
–ui-settings-file | 用于ui设置的文件名 |
–gradio-debug | 使用–debug选项启动gradio |
–gradio-auth | 将gradio身份验证设置为“username:password”;或逗号分隔倍数,如“u1:p1,u2:p2,u3:p3” |
–gradio-auth-path | 设置gradio身份验证文件路径ex.“/path/to/auth/file”与–gradio auth相同的身份验证格式 |
–gradio-img2img-tool | 什么都不做 |
–gradio-inpaint-tool | 什么都不做 |
–opt-channelslast | 改变内存类型以稳定扩散到最后一个通道 |
–styles-file | 用于样式的文件名 |
–autolaunch | 启动时在系统的默认浏览器中打开webui URL |
–theme | 启动带有浅色或深色主题的用户界面 |
–use-textbox-seed | 在UI中使用种子文本框(没有向上/向下,但可以输入长种子) |
–disable-console-progressbars | 不要将进度条输出到控制台 |
–enable-console-prompts | 使用txt2img和img2img生成时,将提示打印到控制台 |
–vae-path | 用作VAE的检查点;设置此参数将禁用与VAE相关的所有设置 |
–disable-safe-unpickle | 禁用检查pytorch模型中的恶意代码 |
–api | 使用api=True与webui一起启动api(仅对api使用–nowebui) |
–api-auth | 设置API的身份验证,如“用户名:密码”;或逗号分隔倍数,如“u1:p1,u2:p2,u3:p3“ |
–api-log | 使用api-log=True启用所有api请求的日志记录 |
–nowebui | 使用api=True启动api而不是webui |
–ui-debug-mode | 不加载模型以快速启动UI |
–device-id | 选择要使用的默认CUDA设备(之前可能需要导出CUDA_VISIBLE_DEVICES=0,1等) |
–administrator | 管理员权限 |
–cors-allow-origins | 以逗号分隔列表的形式允许的CORS原点(无空格) |
–cors-allow-origins-regex | 单个正则表达式形式的允许CORS原点 |
–tls-keyfile | 部分启用TLS,需要–TLS证书文件才能完全运行 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。