一、介绍:

Stable Diffusion 是一款从文本到图像的模型,这款模型由【Stability AI】、【慕尼黑大学的机器视觉与学习小组】以及【神经网络视频公司Runway】共同研发。它首次发布于2022年8月,并在同年11月更新至2.0版本。

它不仅能够根据任何文本生成高度逼真的图像,还能通过训练模型生成具有个性化风格的作品。

我们要学习的是它的其中一个操作界面:Stable diffusion 的webUI操作界面,通常我们会简称SD,或者SDwebUI。如下图:

Stable Diffusion 的几个关键特点包括:

  • 开源性:任何人都可以免费访问和使用 SD 的代码和模型。
  • 本地部署:SD部署在本地计算机,可离线运行。
  • 灵活性:用户可以通过调整参数和使用不同的训练数据集来定制模型,以适应特定的生成任务。
  • 生成内容不受限制:用户可以利用自己的数据集和算法训练模型,从而生成个性化的图像和视频内容

二、生图原理

SD的工作原理和流程如下图:

1、当你输入文字给到AI的时候,它会通过【文本编码器】将文字变为数据;

2、通过扩散处理器随机生成一个噪声图片;

3、通过UNET在潜空间内逐步去除噪声,这个过程有点类似于画沙画,先铺上沙子,然后作画;

4、最后通过VAE解码器将数据变成图像。

2.1 文生图

2.2 图生图

2.3 扩散处理器+UNET

扩散处理器+UNET的处理过程就好比画沙画,先随机生成噪点图片相当于铺上画布然后扩散过程就是绘画的过程。

如有疑问可联系:wxmm19950101
1、本站AI工具使用教程全免费,并且持续更新
2、如果你想看一些例子或者学更多东西,需要花每年128元成为普通会员。
3、对于更专业的商业案例,你需要花599元成为高级会员才能看到。
😊 立刻申请会员😊 →