赞
踩
SDXL 1.0是Stability AI推出的新基础模型,作为Stable Diffusion的大幅改进版本,它是一个用于文本到图像合成的潜在扩散模型(LDM)。作为Stable Diffusion的最新进化,它正在超越其前身,并与MidjourneySOTA图像生成器相媲美的图像。
这些改进源于一系列有意识的设计选择,包括一个3倍大的UNet骨干网络,更强大的预训练文本编码器,以及引入了一个单独的基于扩散的精炼模型。精炼模型使用SDEdit首次提出的后处理图像到图像扩散技术,提高了样本的视觉保真度。这里将使用带有和不带有此精炼模型的SDXL,以更好地理解其在流程中的作用。并比较这些结果与Stable Diffusion 2.0的输出,以获得SDXL引入的改进的更广泛的画面。
但这些改进确实有代价;SDXL 1.0涉及一个35亿参数基础模型(base)和一个66亿参数的精炼模型(refiner),使其成为今天最大的开放图像生成器之一。这种增加主要是由于更多的注意力模块和更大的交叉注意力上下文,因为SDXL使用了第二个文本编码器。
SDXL 1.0作为一款先进的图像生成AI模型,承诺将在多个领域推动生成性AI技术的发展和应用。这包括但不限于3D分类技术,这种技术可以对三维数据进行识别和分类,为三维建模和虚拟现实等领域提供支持;可控图像编辑,允许用户根据需求对图像进行精确的修改和调整;图像个性化,通过理解用户的特定需求和偏好,生成符合个性化要求的图像内容;合成数据增强,通过生成逼真的合成数据来扩充数据集,提高机器学习模型的训练效果;图形用户界面原型设计,利用AI来辅助设计和优化用户界面,提升用户体验;从fMRI脑扫描重建图像,这是一种前沿的应用,可以通过分析脑活动数据来重建视觉图像,对于神经科学研究具有重要意义;以及音乐生成,AI可以根据给定的风格或情感创作出新的音乐作品。
SDXL 1.0在文本到图像生成AI工具领域中表现出色,尽管Midjourney作为一个受欢迎的选择仍然存在,SDXL作为一个免费的开源选项,为其提供了有力的竞争。
SDXL 1.0的开源和开放获取特性意味着用户可以免费使用它,只要有相应的计算资源。值得注意的是,SDXL 1.0并不需要过多的计算资源。Stability AI还指出,SDXL 1.0甚至可以在只有8GB VRAM的消费级GPU上有效运行,这使得生成性文本到图像模型变得更加易于接触和使用。
SDXL 1.0之所以能够提供比以往更好的图像输出,主要得益于以下几点:
更好的对比度、照明和阴影:SDXL 1.0能够生成具有更丰富层次感和深度的图像,通过更精细的照明和阴影处理,使得图像更加逼真和立体。
更鲜艳、更准确的颜色:SDXL 1.0在颜色的再现上做得更好,能够生成更加鲜艳且接近真实世界的颜色,提高了图像的视觉吸引力。
本地1024 x 1024分辨率:SDXL 1.0支持较高的分辨率输出,这意味着生成的图像更加清晰,细节更加丰富。
能够创建可读文本:SDXL 1.0在处理文本方面的能力得到了提升,能够生成清晰可辨的文本,这对于需要包含文字信息的图像生成尤为重要。
更好的人体解剖学(手、脚、四肢和面部):SDXL 1.0在生成人体部位,尤其是手、脚、四肢和面部时,能够更加精确地捕捉到人体解剖学的特征,使得生成的人物图像更加逼真和自然。
生成性AI技术的发展正面临着模型可解释性、透明度和可重复性的重要挑战。随着AI技术的不断进步,模型的决策过程变得越来越复杂,有时候甚至对于开发这些模型的工程师和研究人员来说也难以理解。这种不透明性对于当前许多处于最前沿的生成性AI模型来说尤其令人关注,因为它限制了我们对模型性能、潜在偏见和局限性的全面评估。
Stability AI将SDXL模型开放给公众,这是一个积极的步骤,有助于提高模型的可解释性和透明度。这样的决策有助于避免模型可解释性不足可能带来的一系列负面影响,比如偏见和刻板印象的持续存在,对组织决策的不信任,甚至可能带来的法律后果。此外,开放模型还有助于促进可重复性,增强合作,并推动AI技术的进一步发展。
通过将Stable Diffusion模型开源和开放获取,Stability AI遵循了行业向开放人工智能发展的趋势。这种做法鼓励业界从业者在现有工作的基础上进一步构建和贡献新的见解,共同推动生成性AI技术的进步和创新。通过这种方式,可以促进知识的共享和技术的民主化,从而使更多的人能够参与到AI技术的发展中来,并从中受益。
使用SDXL基础base加refiner模型,随机种子为277,提示为“machine learning model explainability, in the style of a medical poster”(机器学习模型可解释性,以医学海报的风格)
代码Colad:https://colab.research.google.com/drive/17HTh_A-NWCVpPdxw8KJVLpgko8FZ6OQh
SAM + Stable Diffusion用于文本到图像修复
在这个完整的代码教程中,学习如何使用SAM + Stable Diffusion创建一个图像修复流程。
在我们下载了Artifact之后,我们将使用HuggingFace的SDXL修复流程来进行图像修复和扩展。我们将使用与教程第一部分几乎相同的提示(只有一些非常小的例外)。
一个图表展示了一张原始图像、一只青蛙的分割掩膜,以及由SDXL 1.0扩散流程生成的修复后的图像。
图像修复是指在图像的指定区域填充缺失数据的过程;图表由作者提供。
作为提醒,图像修复是指在图像的指定区域填充缺失数据的过程。扩展则是在图像原始边界之外扩展图像的过程,我们将通过修复图像的背景掩膜有效地实现这一点。修复流程接受正面和负面的提示,我们将设置随机种子,以便你在当地环境中复现相同的结果。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。