赞
踩
SD3可以开始体验了
上周,Stablity.ai终于推出了SD3模型的体验,包括API形式的接入使用。不过没有付费的用户,体验SD3出图的机会有限,有群友测算过,目前调用API形式使用此模型,大致一张在0.5元以内的费用。虽不知道之后此模型是否开源,但之前有透露,若想能流畅地使用此模型在本地运行,估计显卡的显存要在12G以上。
个人体验
我们也做了一些跑图测试和观看了不少群友体验后的发图,就本人个人目前的体验感觉,SD3模型的画面还是很令人惊叹的,包括对自然语言的理解力,对英文和数字的绘画能力,以及画面的细节丰富了很多。也达到了一个新的高度。画面的精细度也再次得到了提高,毕竟这个模型的训练量和体量在那。
与SDXL(配合LoRA的)版的对比
通过几组,相同提示词且分辨率相差无多的情况下,不同版本模型比对的效果来看,的确SD3的图像会更加优秀些许,不过SDXL的模型在LoRA的加持下,也似乎不落下风。
SD3体验方式
官网网页方式体验
我们可以通过访问SD3的官网,尝试体验使用网站绘画,和API的申请。
官网:
https://sdxlturbo.ai/stable-diffusion3
API申请:
https://platform.stability.ai/account/keys
【Zho】大佬分享的SD3生图节点
插件名:ComfyUI-StableDiffusion3-API
就在SD3推出的当天,我们就获得了大佬Zho发布的,在ComfyUI中通过调用API实现SD3体验的节点,可以到文末相关资源处领取,或是直接到GitHub上项目地址获得:
https://github.com/ZHO-ZHO-ZHO/ComfyUI-StableDiffusion3-API
使用方法:先申请API,然后编辑文本方式将该插件文件夹中config.json文件,写入所申请到的API-key,保存后,重新开启ComfyUI即可使用此节点。
调用和使用这个节点则就很简单,在右键菜单中找到SD3节点中的Stable Diffusion 3的节点后,打开,再接入图像保存即可进行文生图的操作。
此节点还提供了图生图的模式,可以在核心节点前再接入一个加载图像的节点配合使用。
当前版本注意:
1)SD3 图生图模式不支持选择比例
2)SD3 Turbo 模型不支持负面提示词
官方推出的SD3生图节点
插件名:ComfyUI-SAI_API
之后官方也推出了节点,大家也可以尝试使用,节点的玩法会更多种些。项目地址:
https://github.com/Stability-AI/ComfyUI-SAI_API
相关资源:
文章使用的AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。