Update markdown/unit1/02_diffusion_models_from_scratch_CN.md
Browse files
markdown/unit1/02_diffusion_models_from_scratch_CN.md
CHANGED
@@ -1,21 +1,21 @@
|
|
1 |
# 从零开始的扩散模型
|
2 |
|
3 |
-
|
4 |
|
5 |
我们将学习
|
6 |
-
-
|
7 |
- 什么是UNet,以及如何从零开始实现一个极小的UNet
|
8 |
- 扩散模型训练
|
9 |
-
-
|
10 |
|
11 |
-
然后,我们将比较我们的版本与diffusers
|
12 |
- 对小型UNet的改进
|
13 |
- DDPM噪声计划
|
14 |
- 训练目标的差异
|
15 |
- timestep调节
|
16 |
-
-
|
17 |
|
18 |
-
|
19 |
|
20 |
还值得注意的是,这里的大多数代码都是出于说明的目的,我不建议直接将其用于您自己的工作(除非您只是为了学习目的而尝试改进这里展示的示例)。
|
21 |
|
@@ -42,7 +42,7 @@ print(f'Using device: {device}')
|
|
42 |
|
43 |
## 数据
|
44 |
|
45 |
-
在这里,我们将使用一个非常小的经典数据集mnist
|
46 |
|
47 |
|
48 |
```python
|
@@ -62,19 +62,19 @@ print('Labels:', y)
|
|
62 |
plt.imshow(torchvision.utils.make_grid(x)[0], cmap='Greys');
|
63 |
```
|
64 |
|
65 |
-
|
66 |
|
67 |
-
##
|
68 |
|
69 |
-
|
70 |
|
71 |
-
|
72 |
|
73 |
`noise = torch.rand_like(x)`
|
74 |
|
75 |
`noisy_x = (1-amount)*x + amount*noise`
|
76 |
|
77 |
-
如果 amount = 0,则返回输入而不做任何更改。如果 amount = 1
|
78 |
|
79 |
我们可以很容易地实现这一点(但是要注意tensor的shape,以防被广播(broadcasting)机制不正确的影响到):
|
80 |
|
@@ -87,7 +87,7 @@ def corrupt(x, amount):
|
|
87 |
return x*(1-amount) + noise*amount
|
88 |
```
|
89 |
|
90 |
-
|
91 |
|
92 |
|
93 |
```python
|
@@ -105,13 +105,13 @@ axs[1].set_title('Corrupted data (-- amount increases -->)')
|
|
105 |
axs[1].imshow(torchvision.utils.make_grid(noised_x)[0], cmap='Greys');
|
106 |
```
|
107 |
|
108 |
-
当噪声量接近1
|
109 |
|
110 |
## 模型
|
111 |
|
112 |
-
我们想要一个模型,它可以接收28px的噪声图像,并输出相同形状的预测。一个比较流行的选择是一个叫做UNet的架构。[最初被发明用于医学图像中的分割任务](https://arxiv.org/abs/1505.04597),UNet
|
113 |
|
114 |
-
一些UNet的设计在每个阶段都有复杂的blocks,但对于这个玩具demo
|
115 |
|
116 |

|
117 |
|
@@ -133,7 +133,7 @@ class BasicUNet(nn.Module):
|
|
133 |
nn.Conv2d(64, 32, kernel_size=5, padding=2),
|
134 |
nn.Conv2d(32, out_channels, kernel_size=5, padding=2),
|
135 |
])
|
136 |
-
self.act = nn.
|
137 |
self.downscale = nn.MaxPool2d(2)
|
138 |
self.upscale = nn.Upsample(scale_factor=2)
|
139 |
|
@@ -154,7 +154,7 @@ class BasicUNet(nn.Module):
|
|
154 |
return x
|
155 |
```
|
156 |
|
157 |
-
|
158 |
|
159 |
|
160 |
```python
|
@@ -184,20 +184,20 @@ sum([p.numel() for p in net.parameters()])
|
|
184 |
|
185 |
|
186 |
|
187 |
-
您可以尝试更改每个layer
|
188 |
|
189 |
## 训练模型
|
190 |
|
191 |
-
|
192 |
|
193 |
-
|
194 |
- 获取一批数据
|
195 |
- 添加随机噪声
|
196 |
- 将数据输入模型
|
197 |
- 将模型预测与干净图像进行比较,以计算loss
|
198 |
- 更新模型的参数。
|
199 |
|
200 |
-
|
201 |
|
202 |
|
203 |
```python
|
@@ -265,7 +265,7 @@ plt.ylim(0, 0.1);
|
|
265 |
|
266 |
|
267 |
|
268 |
-
|
269 |
|
270 |
|
271 |
```python
|
@@ -299,15 +299,15 @@ axs[2].imshow(torchvision.utils.make_grid(preds)[0].clip(0, 1), cmap='Greys');
|
|
299 |
|
300 |
|
301 |
|
302 |
-
|
303 |
|
304 |
## 取样(采样)
|
305 |
|
306 |
-
|
307 |
|
308 |
-
|
309 |
|
310 |
-
|
311 |
|
312 |
|
313 |
```python
|
@@ -339,7 +339,7 @@ for i in range(n_steps):
|
|
339 |
|
340 |
|
341 |
|
342 |
-
|
343 |
|
344 |
|
345 |
```python
|
@@ -369,13 +369,13 @@ ax.imshow(torchvision.utils.make_grid(x.detach().cpu(), nrow=8)[0].clip(0, 1), c
|
|
369 |
|
370 |
|
371 |
|
372 |
-
|
373 |
|
374 |
## 与 DDPM 做比较
|
375 |
|
376 |
-
|
377 |
|
378 |
-
|
379 |
|
380 |
* 模型的表现受限于随迭代周期(timesteps)变化的控制条件,在前向传到中时间步(t)是作为一个参数被传入的
|
381 |
* 有很多不同的取样策略可选择,可能会比我们上面所使用的最简单的版本更好
|
@@ -385,9 +385,9 @@ ax.imshow(torchvision.utils.make_grid(x.detach().cpu(), nrow=8)[0].clip(0, 1), c
|
|
385 |
* 该模型通过调节timestep来调节噪声水平, 其中t作为一个附加参数传入前向过程中。
|
386 |
* 有许多不同的采样策略可供选择,它们应该比我们上面简单的版本更有效。
|
387 |
|
388 |
-
自DDPM
|
389 |
|
390 |
-
|
391 |
|
392 |
### UNet
|
393 |
|
@@ -396,7 +396,7 @@ diffusers中的UNet2DModel模型比上述基本UNet模型有许多改进:
|
|
396 |
* GroupNorm层对每个blocks的输入进行了组标准化(group normalization)
|
397 |
* Dropout层能使训练更平滑
|
398 |
* 每个块有多个resnet层(如果layers_per_block未设置为1)
|
399 |
-
*
|
400 |
* timestep的调节。
|
401 |
* 具有可学习参数的下采样和上采样块
|
402 |
|
@@ -740,7 +740,7 @@ print(model)
|
|
740 |
)
|
741 |
|
742 |
|
743 |
-
|
744 |
|
745 |
|
746 |
```python
|
@@ -754,7 +754,7 @@ sum([p.numel() for p in model.parameters()]) # 1.7M vs the ~309k parameters of t
|
|
754 |
|
755 |
|
756 |
|
757 |
-
|
758 |
|
759 |
|
760 |
```python
|
@@ -857,9 +857,9 @@ axs[1].set_title('Generated Samples');
|
|
857 |
|
858 |
|
859 |
|
860 |
-
|
861 |
|
862 |
-
###
|
863 |
|
864 |
DDPM论文描述了一个为每个“timestep”添加少量噪声的损坏过程。 为某些timestep给定 $x_{t-1}$ ,我们可以得到一个噪声稍稍增加的 $x_t$:<br><br>
|
865 |
|
@@ -873,7 +873,7 @@ $\begin{aligned}
|
|
873 |
q(\mathbf{x}_t \vert \mathbf{x}_0) &= \mathcal{N}(\mathbf{x}_t; \sqrt{\bar{\alpha}_t} \mathbf{x}_0, \sqrt{(1 - \bar{\alpha}_t)} \mathbf{I})
|
874 |
\end{aligned}$ where $\bar{\alpha}_t = \prod_{i=1}^T \alpha_i$ and $\alpha_i = 1-\beta_i$<br><br>
|
875 |
|
876 |
-
|
877 |
|
878 |
|
879 |
|
@@ -938,9 +938,6 @@ axs[2].set_title('Noisy X');
|
|
938 |
在运行中的另一个变化:在DDPM版本中,加入的噪声是取自一个高斯分布(来自均值0方差1的torch.randn),而不是在我们原始 `corrupt`函数中使用的 0-1之间的均匀分布(torch.rand),当然对训练数据做正则化也可以理解。在另一篇笔记中,你会看到 `Normalize(0.5, 0.5)`函数在变化列表中,它把图片数据从(0, 1) 区间映射到 (-1, 1),对我们的目标来说也‘足够用了’。我们在此篇笔记中没使用这个方法,但在上面的可视化中为了更好的展示添加了这种做法。
|
939 |
|
940 |
|
941 |
-
```python
|
942 |
-
|
943 |
-
```
|
944 |
|
945 |
### 训练目标
|
946 |
|
@@ -960,11 +957,11 @@ loss = mse_loss(model_prediction, noise) # noise as the target
|
|
960 |
一句话解释:选择目标对模型性能有影响,现在有许多研究者正在探索“最佳”选项是什么。
|
961 |
目前,预测噪声(epsilon或eps)是最流行的方法,但随着时间的推移,我们很可能会看到库中支持的其他目标,并在不同的情况下使用。
|
962 |
|
963 |
-
###
|
964 |
|
965 |
UNet2DModel以x和timestep为输入。后者被转化为一个嵌入(embedding),并在多个地方被输入到模型中。
|
966 |
|
967 |
-
|
968 |
|
969 |
### 取样(采样)
|
970 |
|
|
|
1 |
# 从零开始的扩散模型
|
2 |
|
3 |
+
有时,只考虑一些最简单的情况会有助于更好地理解工作原理。我们将在本笔记中尝试这样做,从“玩具”扩散模型开始,看看不同的部分是如何工作的,然后再看看它们与更为复杂的实现有何不同。
|
4 |
|
5 |
我们将学习
|
6 |
+
- 退化过程(向数据添加噪声)
|
7 |
- 什么是UNet,以及如何从零开始实现一个极小的UNet
|
8 |
- 扩散模型训练
|
9 |
+
- 采样理论
|
10 |
|
11 |
+
然后,我们将比较我们的版本与diffusers库中DDPM实现的区别
|
12 |
- 对小型UNet的改进
|
13 |
- DDPM噪声计划
|
14 |
- 训练目标的差异
|
15 |
- timestep调节
|
16 |
+
- 采样方法
|
17 |
|
18 |
+
此篇笔记内容会相当深入,如果你对从零开始的深入研究不感兴趣,也可以放心地跳过!
|
19 |
|
20 |
还值得注意的是,这里的大多数代码都是出于说明的目的,我不建议直接将其用于您自己的工作(除非您只是为了学习目的而尝试改进这里展示的示例)。
|
21 |
|
|
|
42 |
|
43 |
## 数据
|
44 |
|
45 |
+
在这里,我们将使用一个非常小的经典数据集mnist来进行测试。如果您想在不改变任何其他内容的情况下,给模型一个更困难的挑战,请使用torchvision.dataset中FashionMNIST来代替。
|
46 |
|
47 |
|
48 |
```python
|
|
|
62 |
plt.imshow(torchvision.utils.make_grid(x)[0], cmap='Greys');
|
63 |
```
|
64 |
|
65 |
+
该数据集中的每张图都是一个阿拉伯数字的28x28像素的灰度图,像素值的范围是从0到1。
|
66 |
|
67 |
+
## 退化过程
|
68 |
|
69 |
+
假设你没有读过任何扩散模型相关的论文,但你知道在这个过程是在给内容增加噪声。你会怎么做?
|
70 |
|
71 |
+
你可能想要一个简单的方法来控制损坏的程度。那么如果需要引入一个参数,用来控制输入的“噪声量”,那么我们会这么做:
|
72 |
|
73 |
`noise = torch.rand_like(x)`
|
74 |
|
75 |
`noisy_x = (1-amount)*x + amount*noise`
|
76 |
|
77 |
+
如果 amount = 0,则返回输入而不做任何更改。如果 amount = 1,我们将得到一个纯粹的噪声。通过这种方式将输入内容与噪声混合,再把混合后的结果仍然保持在相同的范围(0 to 1)。
|
78 |
|
79 |
我们可以很容易地实现这一点(但是要注意tensor的shape,以防被广播(broadcasting)机制不正确的影响到):
|
80 |
|
|
|
87 |
return x*(1-amount) + noise*amount
|
88 |
```
|
89 |
|
90 |
+
我们来可视化一下输出的结果,来看看它是否符合预期:
|
91 |
|
92 |
|
93 |
```python
|
|
|
105 |
axs[1].imshow(torchvision.utils.make_grid(noised_x)[0], cmap='Greys');
|
106 |
```
|
107 |
|
108 |
+
当噪声量接近1时,我们的数据开始看起来像纯粹的随机噪声。但对于大多数的噪声情况下,您还是可以很好地识别出数字。但这样你认为是最佳的结果吗?
|
109 |
|
110 |
## 模型
|
111 |
|
112 |
+
我们想要一个模型,它可以接收28px的噪声图像,并输出相同形状的预测。一个比较流行的选择是一个叫做UNet的架构。[最初被发明用于医学图像中的分割任务](https://arxiv.org/abs/1505.04597),UNet由一个“压缩路径”和一个“扩展路径”组成。“压缩路径”会使通过该路径的数据纬度被压缩,而通过“扩展路径”会将数据扩展回原始维度(类似于自动编码器)。模型中的残差连接也允许信息和梯度在不同层级之间流动。
|
113 |
|
114 |
+
一些UNet的设计在每个阶段都有复杂的blocks,但对于这个玩具demo,我们只会构建一个最简单的示例,它接收一个单通道图像,并通过下行路径的3个卷积层(图和代码中的down_layers)和上行路径的3个卷积层,且在下行和上行层之间有残差连接。我们将使用max pooling进行下采样和`nn.Upsample`用于上采样。某些更复杂的UNets的设计会使用带有可学习参数的上采样和下采样layer。下面的结构图大致展示了每个layer的输出通道数:
|
115 |
|
116 |

|
117 |
|
|
|
133 |
nn.Conv2d(64, 32, kernel_size=5, padding=2),
|
134 |
nn.Conv2d(32, out_channels, kernel_size=5, padding=2),
|
135 |
])
|
136 |
+
self.act = nn.n() # The activation function
|
137 |
self.downscale = nn.MaxPool2d(2)
|
138 |
self.upscale = nn.Upsample(scale_factor=2)
|
139 |
|
|
|
154 |
return x
|
155 |
```
|
156 |
|
157 |
+
我们可以验证输出的shape是否如我们期望的那样是与输入相同的:
|
158 |
|
159 |
|
160 |
```python
|
|
|
184 |
|
185 |
|
186 |
|
187 |
+
您可以尝试更改每个layer中的通道数或直接尝试不同的结构设计。
|
188 |
|
189 |
## 训练模型
|
190 |
|
191 |
+
那么,扩散模型到底应该做什么呢?对这个问题有各种不同的看法,但对于这个演示,我们来选择一个简单的框架:给定一��带噪的输入noisy_x,模型应该输出它对原本x的最佳预测。我们会通过均方误差将预测与真实值进行比较。
|
192 |
|
193 |
+
我们现在可以尝试来训练网络了。
|
194 |
- 获取一批数据
|
195 |
- 添加随机噪声
|
196 |
- 将数据输入模型
|
197 |
- 将模型预测与干净图像进行比较,以计算loss
|
198 |
- 更新模型的参数。
|
199 |
|
200 |
+
你可以自由进行修改来看看怎样获得更好的结果!
|
201 |
|
202 |
|
203 |
```python
|
|
|
265 |
|
266 |
|
267 |
|
268 |
+
我们可以尝试通过抓取一批数据,拿不同程度的损坏数据,喂进模型获得预测来观察结果:
|
269 |
|
270 |
|
271 |
```python
|
|
|
299 |
|
300 |
|
301 |
|
302 |
+
你可以看到,对于较低噪声量的输入,预测的结果相当不错!但是,当噪声量非常高时,模型能够获得的信息就开始逐渐减少。而当我们达到amount = 1时,模型会输出一个模糊的预测,该预测会很接近数据集的平均值。模型正是通过这样的方式来猜测原始输入。
|
303 |
|
304 |
## 取样(采样)
|
305 |
|
306 |
+
如果我们在高噪声量下的预测结果不是很好,又如何来解决呢?
|
307 |
|
308 |
+
如果我们从完全随机的噪声开始,先检查一下模型预测的结果,然后只朝着预测方向移动一小部分,比如说20%。现在我们有一个夹杂很多噪声的图像,其中可能隐藏了一些输入数据结构的提示,我们来把它输入到模型中来获得新的预测。希望这个新的预测比上一步稍微好一点(因为我们这一次的输入稍微减少了一点噪声),所以我们可以再用这个新的,更好一点的预测往前再迈出一小步。
|
309 |
|
310 |
+
如果一切顺利的话,以上过程重复几次以后我们就会得到一个全新的图像!以下图例是迭代了五次以后的结果,左侧是每个阶段的模型输入的可视化,右侧则是预测的去噪图像。要注意即使模型在第一步后就能输出一个去掉一些噪声的图像,但也只是向最终目标前进了一点点。如此重复几次后,图像的结构开始逐渐出现并得到改善,直到获得我们的最终结果为止。
|
311 |
|
312 |
|
313 |
```python
|
|
|
339 |
|
340 |
|
341 |
|
342 |
+
我们可以将流程分成更多步骤,并期望通过这种方式来获得质量更高的图像:
|
343 |
|
344 |
|
345 |
```python
|
|
|
369 |
|
370 |
|
371 |
|
372 |
+
结果并不是非常好,但是已经有了几个可以被认出来的数字!您可以尝试训练更长时间(例如,10或20个epoch),并调整模型配置、学习率、优化器等。此外,如果您想尝试稍微困难一点的数据集,您可以尝试一下fashionMNIST,只需要调整一行代码来替换就可以了。
|
373 |
|
374 |
## 与 DDPM 做比较
|
375 |
|
376 |
+
在本节中,我们将看看我们的“玩具”实现与其他笔记中使用的基于DDPM论文的方法有何不同([扩散器简介](https://github.com/huggingface/diffusion-models-class/blob/main/unit1/01_introduction_to_diffusers.ipynb))。
|
377 |
|
378 |
+
我们将会看到
|
379 |
|
380 |
* 模型的表现受限于随迭代周期(timesteps)变化的控制条件,在前向传到中时间步(t)是作为一个参数被传入的
|
381 |
* 有很多不同的取样策略可选择,可能会比我们上面所使用的最简单的版本更好
|
|
|
385 |
* 该模型通过调节timestep来调节噪声水平, 其中t作为一个附加参数传入前向过程中。
|
386 |
* 有许多不同的采样策略可供选择,它们应该比我们上面简单的版本更有效。
|
387 |
|
388 |
+
自DDPM论文发表以来,已经有人提出了许多改进建议,但这个例子对于不同的设计决策具有指导意义。读完这篇文章后,你可能会想要深入了解这篇论文['Elucidating the Design Space of Diffusion-Based Generative Models'](https://arxiv.org/abs/2206.00364)它对所有这些组件进行了详细的探讨,并就如何获得最佳性能提出了些新的建议。
|
389 |
|
390 |
+
如果你觉得这些内容对你来说过于深奥了,请不要担心!你大可先跳过本笔记的其余部分,或将其保存以需要时再来回顾。
|
391 |
|
392 |
### UNet
|
393 |
|
|
|
396 |
* GroupNorm层对每个blocks的输入进行了组标准化(group normalization)
|
397 |
* Dropout层能使训练更平滑
|
398 |
* 每个块有多个resnet层(如果layers_per_block未设置为1)
|
399 |
+
* 注意力机制(通常仅用于输入分辨率较低的blocks)
|
400 |
* timestep的调节。
|
401 |
* 具有可学习参数的下采样和上采样块
|
402 |
|
|
|
740 |
)
|
741 |
|
742 |
|
743 |
+
正如你所看到的,而且!它比我们的BasicUNet有多得多的参数量:
|
744 |
|
745 |
|
746 |
```python
|
|
|
754 |
|
755 |
|
756 |
|
757 |
+
我们可以用这个模型来代替之前的模型重复一遍上面展示的训练过程。我们需要将x和timestep传递进去(这里我会传递t = 0,以表明它在没有timestep条件的情况下工作,并保持采样代码足够简单,但您也可以尝试输入 `(amount*1000)`,使timestep与噪声水平相当)。如果要检查代码,更改的行将显示为“`#<<<`。
|
758 |
|
759 |
|
760 |
```python
|
|
|
857 |
|
858 |
|
859 |
|
860 |
+
这看起来比我们的第一组的结果好多了!您可以尝试调整UNet的配置或更使用长的时间训练,以获得更好的性能。
|
861 |
|
862 |
+
### 退化过程
|
863 |
|
864 |
DDPM论文描述了一个为每个“timestep”添加少量噪声的损坏过程。 为某些timestep给定 $x_{t-1}$ ,我们可以得到一个噪声稍稍增加的 $x_t$:<br><br>
|
865 |
|
|
|
873 |
q(\mathbf{x}_t \vert \mathbf{x}_0) &= \mathcal{N}(\mathbf{x}_t; \sqrt{\bar{\alpha}_t} \mathbf{x}_0, \sqrt{(1 - \bar{\alpha}_t)} \mathbf{I})
|
874 |
\end{aligned}$ where $\bar{\alpha}_t = \prod_{i=1}^T \alpha_i$ and $\alpha_i = 1-\beta_i$<br><br>
|
875 |
|
876 |
+
数学符号看起来总是很吓人!幸运的是,调度器为我们处理了���有这些(取消下一个单元格的注释来试试代码)。我们可以画出 $\sqrt{\bar{\alpha}_t}$ (标记为 `sqrt_alpha_prod`) 和 $\sqrt{(1 - \bar{\alpha}_t)}$ (标记为 `sqrt_one_minus_alpha_prod`) 来看一下输入(x)与噪声是如何在不同迭代周期中量化和叠加的:
|
877 |
|
878 |
|
879 |
|
|
|
938 |
在运行中的另一个变化:在DDPM版本中,加入的噪声是取自一个高斯分布(来自均值0方差1的torch.randn),而不是在我们原始 `corrupt`函数中使用的 0-1之间的均匀分布(torch.rand),当然对训练数据做正则化也可以理解。在另一篇笔记中,你会看到 `Normalize(0.5, 0.5)`函数在变化列表中,它把图片数据从(0, 1) 区间映射到 (-1, 1),对我们的目标来说也‘足够用了’。我们在此篇笔记中没使用这个方法,但在上面的可视化中为了更好的展示添加了这种做法。
|
939 |
|
940 |
|
|
|
|
|
|
|
941 |
|
942 |
### 训练目标
|
943 |
|
|
|
957 |
一句话解释:选择目标对模型性能有影响,现在有许多研究者正在探索“最佳”选项是什么。
|
958 |
目前,预测噪声(epsilon或eps)是最流行的方法,但随着时间的推移,我们很可能会看到库中支持的其他目标,并在不同的情况下使用。
|
959 |
|
960 |
+
### Timestep的调节
|
961 |
|
962 |
UNet2DModel以x和timestep为输入。后者被转化为一个嵌入(embedding),并在多个地方被输入到模型中。
|
963 |
|
964 |
+
这背后的理论支持是这样的:通过向模型提供有关噪声量的信息,它可以更好地执行任务。虽然在没有这种timestep条件的情况下也可以训练模型,但在某些情况下,它似乎确实有助于性能,目前来说绝大多数的模型实现都包括了这一输入。
|
965 |
|
966 |
### 取样(采样)
|
967 |
|