Stable Diffusion的解读(二)
Stable Diffusion的解读(二)
文章目录
- Stable Diffusion的解读(二)
- 摘要
- Abstract
- 一、机器学习部分
- 1. 算法梳理
- 1.1 LDM采样算法
- 1.2 U-Net结构组成
- 2. Stable Diffusion 官方 GitHub 仓库
- 2.1 安装
- 2.2 主函数
- 2.3 DDIM采样器
- 2.4 Unet
- 3. Diffusers
- 3.1 安装
- 3.2 采样
- 3.3 Unet
- 总结
摘要
本周主要解读了Stable Diffusion的代码实现,重点学习了采样算法和U-Net结构。通过伪代码梳理了Stable Diffusion的采样过程,并对比了不同采样算法如DDPM和DDIM的差异。进一步分析了Stable Diffusion官方仓库的代码,包括如何安装和运行模型,以及主函数和DDIM采样器的具体实现。同时,对U-Net的结构进行了详细探讨,理解了其在Stable Diffusion中的改进。最后,解读了Diffusers库中Stable Diffusion的实现细节。
Abstract
This week focused on interpreting the code implementation of Stable Diffusion, with emphasis on the sampling algorithm and U-Net structure. The sampling process of Stable Diffusion was organized using pseudocode, and differences between various sampling algorithms such as DDPM and DDIM were compared. The official Stable Diffusion repository was analyzed, covering model installation and execution, as well as the specifics of the main function and DDIM sampler implementation. Additionally, the U-Net structure was discussed in detail, understanding its improvements in Stable Diffusion. Finally, I learned the implementation details of Stable Diffusion in the Diffusers library.
一、机器学习部分
看完了Stable Diffusion的论文,在最后这篇文章里,我们来学习Stable Diffusion的代码实现。具体来说,我们会学习Stable Diffusion官方仓库及Diffusers开源库中有关采样算法和U-Net的代码,如今大多数工作都只会用到预训练的Stable Diffusion,只学采样算法和U-Net代码就能理解大多数工作了。
1. 算法梳理
在正式读代码之前,我们先用伪代码梳理一下Stable Diffusion的采样过程,并回顾一下U-Net架构的组成。实现Stable Diffusion的代码库有很多,各个库之间的API差异很大。但是,它们实际上都是在描述同一个算法,同一个模型。如果我们理解了算法和模型本身,就可以在学习时主动去找一个算法对应哪一段代码,而不是被动地去理解每一行代码在干什么。
1.1 LDM采样算法
让我们从最早的DDPM开始,一步一步还原Latent Diffusion Model (LDM)的采样算法。DDPM的采样算法如下所示:
def ddpm_sample(image_shape):ddpm_scheduler = DDPMScheduler()unet = UNet()xt = randn(image_shape)T = 1000for t in T ... 1:eps = unet(xt, t)std = ddpm_scheduler.get_std(t)xt = ddpm_scheduler.get_xt_prev(xt, t, eps, std)return xt
在DDPM的实现中,一般会有一个类专门维护扩散模型的α,β等变量。我们这里把这个类称为DDPMScheduler
。此外,DDPM会用到一个U-Net神经网络unet
,用于计算去噪过程中图像应该去除的噪声eps
。准备好这两个变量后,就可以用randn()
从标准正态分布中采样一个纯噪声图像xt
。它会被逐渐去噪,最终变成一幅图片。去噪过程中,时刻t
会从总时刻T
遍历至1
(总时刻T
一般取1000
)。在每一轮去噪步骤中,U-Net会根据这一时刻的图像xt
和当前时间戳t
估计出此刻应去除的噪声eps
,根据xt
和eps
就能知道下一步图像的均值。除了均值,我们还要获取下一步图像的方差,这一般可以从DDPM调度类中直接获取。有了下一步图像的均值和方差,我们根据DDPM的公式,就能采样出下一步的图像。反复执行去噪循环,xt
会从纯噪声图像变成一幅有意义的图像。
DDIM对DDPM的采样过程做了两点改进:1) 去噪的有效步数可以少于T
步,由另一个变量ddim_steps
决定;2) 采样的方差大小可以由eta
决定。因此,改进后的DDIM算法可以写成这样:
def ddim_sample(image_shape, ddim_steps = 20, eta = 0):ddim_scheduler = DDIMScheduler()unet = UNet()xt = randn(image_shape)T = 1000timesteps = ddim_scheduler.get_timesteps(T, ddim_steps) # [1000, 950, 900, ...]for t in timesteps:eps = unet(xt, t)std = ddim_scheduler.get_std(t, eta)xt = ddim_scheduler.get_xt_prev(xt, t, eps, std)return xt
其中,ddim_steps
是去噪循环的执行次数。根据ddim_steps
,DDIM调度器可以生成所有被使用到的t
。比如对于T=1000, ddim_steps=20
,被使用到的就只有[1000, 950, 900, ..., 50]
这20个时间戳,其他时间戳就可以跳过不算了。eta
会被用来计算方差,一般这个值都会设成0
。
DDIM是早期的加速扩散模型采样的算法。如今有许多比DDIM更好的采样方法,但它们多数都保留了
steps
和eta
这两个参数。因此,在使用所有采样方法时,我们可以不用关心实现细节,只关注多出来的这两个参数。
在DDIM的基础上,LDM从生成像素空间上的图像变为生成隐空间上的图像。隐空间图像需要再做一次解码才能变回真实图像。从代码上来看,使用LDM后,只需要多准备一个VAE,并对最后的隐空间图像zt
解码。
def ldm_ddim_sample(image_shape, ddim_steps = 20, eta = 0):ddim_scheduler = DDIMScheduler()vae = VAE()unet = UNet()zt = randn(image_shape)T = 1000timesteps = ddim_scheduler.get_timesteps(T, ddim_steps) # [1000, 950, 900, ...]for t in timesteps:eps = unet(zt, t)std = ddim_scheduler.get_std(t, eta)zt = ddim_scheduler.get_xt_prev(zt, t, eps, std)xt = vae.decoder.decode(zt)return xt
而想用LDM实现文生图,则需要给一个额外的文本输入text
。文本编码器会把文本编码成张量c
,输入进unet
。其他地方的实现都和之前的LDM一样。
def ldm_text_to_image(image_shape, text, ddim_steps = 20, eta = 0):ddim_scheduler = DDIMScheduler()vae = VAE()unet = UNet()zt = randn(image_shape)T = 1000timesteps = ddim_scheduler.get_timesteps(T, ddim_steps) # [1000, 950, 900, ...]text_encoder = CLIP()c = text_encoder.encode(text)for t = timesteps:eps = unet(zt, t, c)std = ddim_scheduler.get_std(t, eta)zt = ddim_scheduler.get_xt_prev(zt, t, eps, std)xt = vae.decoder.decode(zt)return xt
最后这个能实现文生图的LDM就是我们熟悉的Stable Diffusion。Stable Diffusion的采样算法看上去比较复杂,但如果能够从DDPM开始把各个功能都拆开来看,理解起来就不是那么困难了。
1.2 U-Net结构组成
Stable Diffusion代码实现中的另一个重点是去噪网络U-Net的实现。仿照上一节的学习方法,我们来逐步学习Stable Diffusion中的U-Net是怎么从最经典的纯卷积U-Net逐渐发展而来的。
最早的U-Net的结构如下图所示:
可以看出,U-Net的结构有以下特点:
- 整体上看,U-Net由若干个大层组成。特征在每一大层会被下采样成尺寸更小的特征,再被上采样回原尺寸的特征。整个网络构成一个U形结构。
- 下采样后,特征的通道数会变多。一般情况下,每次下采样后图像尺寸减半,通道数翻倍。上采样过程则反之。
- 为了防止信息在下采样的过程中丢失,U-Net每一大层在下采样前的输出会作为额外输入拼接到每一大层上采样前的输入上。这种数据连接方式类似于ResNet中的「短路连接」。
DDPM则使用了一种改进版的U-Net。改进主要有两点:
- 原来的卷积层被替换成了ResNet中的残差卷积模块。每一大层有若干个这样的子模块。对于较深的大层,残差卷积模块后面还会接一个自注意力模块。
- 原来模型每一大层只有一个短路连接。现在每个大层下采样部分的每个子模块的输出都会额外输入到其对称的上采样部分的子模块上。直观上来看,就是短路连接更多了一点,输入信息更不容易在下采样过程中丢失。
最后,LDM提出了一种给U-Net添加额外约束信息的方法:把U-Net中的自注意力模块换成交叉注意力模块。具体来说,DDPM的U-Net的自注意力模块被换成了标准的Transformer模块。约束信息C可以作为Cross Attention的K, V输入进模块中。
Stable Diffusion的U-Net还在结构上有少许修改,该U-Net的每一大层都有Transformer块,而不是只有较深的大层有。
至此,我们已经学完了Stable Diffusion的采样原理和U-Net结构。接下来我们来看一看它们在不同框架下的代码实现。
2. Stable Diffusion 官方 GitHub 仓库
2.1 安装
克隆仓库后,照着官方Markdown文档安装即可。
git clone git@github.com:CompVis/stable-diffusion.git
先用下面的命令创建conda环境,此后ldm
环境就是运行Stable Diffusiion的conda环境。
conda env create -f environment.yaml
conda activate ldm
之后去网上下一个Stable Diffusion的模型文件。比较常见一个版本是v1.5,该模型在Hugging Face上:https://huggingface.co/benjamin-paine/stable-diffusion-v1-5 (推荐下载v1-5-pruned.ckpt
)。下载完毕后,把模型软链接到指定位置。
mkdir -p models/ldm/stable-diffusion-v1/
ln -s <path/to/model.ckpt> models/ldm/stable-diffusion-v1/model.ckpt
准备完毕后,只要输入下面的命令,就可以生成实现文生图了。
python scripts/txt2img.py --prompt "a photograph of an astronaut riding a horse"
在默认的参数下,“一幅骑着马的飞行员的照片”的绘制结果会被保存在outputs/txt2img-samples
中。你也可以通过--outdir <dir>
参数来指定输出到的文件夹。我得到的一些绘制结果为:
2.2 主函数
接下来,我们来探究一下scripts/txt2img.py
的执行过程。为了方便阅读,我们可以简化代码中的命令行处理,得到下面这份精简代码。(你可以把这份代码复制到仓库根目录下的一个新Python脚本里并直接运行。别忘了修改代码中的模型路径)
import os
import torch
import numpy as np
from omegaconf import OmegaConf
from PIL import Image
from tqdm import tqdm, trange
from einops import rearrange
from pytorch_lightning import seed_everything
from torch import autocast
from torchvision.utils import make_gridfrom ldm.util import instantiate_from_config
from ldm.models.diffusion.ddim import DDIMSamplerdef load_model_from_config(config, ckpt, verbose=False):print(f"Loading model from {ckpt}")pl_sd = torch.load(ckpt, map_location="cpu")if "global_step" in pl_sd:print(f"Global Step: {pl_sd['global_step']}")sd = pl_sd["state_dict"]model = instantiate_from_config(config.model)m, u = model.load_state_dict(sd, strict=False)if len(m) > 0 and verbose:print("missing keys:")print(m)if len(u) > 0 and verbose:print("unexpected keys:")print(u)model.cuda()model.eval()return modeldef main():seed = 42config = 'configs/stable-diffusion/v1-inference.yaml'ckpt = 'ckpt/v1-5-pruned.ckpt'outdir = 'tmp'n_samples = batch_size = 3n_rows = batch_sizen_iter = 2prompt = 'a photograph of an astronaut riding a horse'data = [batch_size * [prompt]]scale = 7.5C = 4f = 8H = W = 512ddim_steps = 50ddim_eta = 0.0seed_everything(seed)config = OmegaConf.load(config)model = load_model_from_config(config, ckpt)device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")model = model.to(device)sampler = DDIMSampler(model)os.makedirs(outdir, exist_ok=True)outpath = outdirsample_path = os.path.join(outpath, "samples")os.makedirs(sample_path, exist_ok=True)grid_count = len(os.listdir(outpath)) - 1start_code = Noneprecision_scope = autocastwith torch.no_grad():with precision_scope("cuda"):with model.ema_scope():all_samples = list()for n in trange(n_iter, desc="Sampling"):for prompts in tqdm(data, desc="data"):uc = Noneif scale != 1.0:uc = model.get_learned_conditioning(batch_size * [""])if isinstance(prompts, tuple):prompts = list(prompts)c = model.get_learned_conditioning(prompts)shape = [C, H // f, W // f]samples_ddim, _ = sampler.sample(S=ddim_steps,conditioning=c,batch_size=n_samples,shape=shape,verbose=False,unconditional_guidance_scale=scale,unconditional_conditioning=uc,eta=ddim_eta,x_T=start_code)x_samples_ddim = model.decode_first_stage(samples_ddim)x_samples_ddim = torch.clamp((x_samples_ddim + 1.0) / 2.0, min=0.0, max=1.0)all_samples.append(x_samples_ddim)grid = torch.stack(all_samples, 0)grid = rearrange(grid, 'n b c h w -> (n b) c h w')grid = make_grid(grid, nrow=n_rows)# to imagegrid = 255. * rearrange(grid, 'c h w -> h w c').cpu().numpy()img = Image.fromarray(grid.astype(np.uint8))img.save(os.path.join(outpath, f'grid-{grid_count:04}.png'))grid_count += 1print(f"Your samples are ready and waiting for you here: \n{outpath} \n"f" \nEnjoy.")if __name__ == "__main__":main()
抛开前面一大堆初始化操作,代码的核心部分只有下面几行。
uc = None
if scale != 1.0:uc = model.get_learned_conditioning(batch_size * [""])
if isinstance(prompts, tuple):prompts = list(prompts)
c = model.get_learned_conditioning(prompts)
shape = [C, H // f, W // f]
samples_ddim, _ = sampler.sample(S=ddim_steps,conditioning=c,batch_size=n_samples,shape=shape,verbose=False,unconditional_guidance_scale=scale,unconditional_conditioning=uc,eta=ddim_eta,x_T=start_code)x_samples_ddim = model.decode_first_stage(samples_ddim)
我们来逐行分析一下这段代码。一开始的几行是执行Classifier-Free Guidance (CFG)。uc
表示的是CFG中的无约束下的约束张量。scale
表示的是执行CFG的程度,scale
不等于1.0
即表示启用CFG。model.get_learned_conditioning
表示用CLIP把文本编码成张量。对于文本约束的模型,无约束其实就是输入文本为空字符串(""
)。因此,在代码中,若启用了CFG,则会用CLIP编码空字符串,编码结果为uc
。
uc = None
if scale != 1.0:uc = model.get_learned_conditioning(batch_size * [""])
之后的几行是在把用户输入的文本编码成张量。同样,model.get_learned_conditioning
表示用CLIP把输入文本编码成张量c
。
if isinstance(prompts, tuple):prompts = list(prompts)
c = model.get_learned_conditioning(prompts)
接着是用扩散模型的采样器生成图片。在这份代码中,sampler
是DDIM采样器,sampler.sample
函数直接完成了图像生成。
shape = [C, H // f, W // f]
samples_ddim, _ = sampler.sample(S=ddim_steps,conditioning=c,batch_size=n_samples,shape=shape,verbose=False,unconditional_guidance_scale=scale,unconditional_conditioning=uc,eta=ddim_eta,x_T=start_code)
最后,LDM生成的隐空间图片被VAE解码成真实图片。函数model.decode_first_stage
负责图片解码。x_samples_ddim
在后续的代码中会被后处理成正确格式的RGB图片,并输出至文件里。
x_samples_ddim = model.decode_first_stage(samples_ddim)
Stable Diffusion 官方实现的主函数主要就做了这些事情。这份实现还是有一些凌乱的。采样算法的一部分内容被扔到了主函数里,另一部分放到了DDIM采样器里。在阅读官方实现的源码时,既要去读主函数里的内容,也要去读采样器里的内容。
接下来,我们来看一看DDIM采样器的部分代码,学完采样算法的剩余部分的实现。
2.3 DDIM采样器
回头看主函数的前半部分,DDIM采样器是在下面的代码里导入的:
from ldm.models.diffusion.ddim import DDIMSampler
跳转到ldm/models/diffusion/ddim.py
文件,我们可以找到DDIMSampler
类的实现。
先看一下这个类的构造函数。构造函数主要是把U-Net model
给存了下来。后文中的self.model
都指的是U-Net。
def __init__(self, model, schedule="linear", **kwargs):super().__init__()self.model = modelself.ddpm_num_timesteps = model.num_timestepsself.schedule = schedule# in mainconfig = OmegaConf.load(config)
model = load_model_from_config(config, ckpt)
model = model.to(device)
sampler = DDIMSampler(model)
再沿着类的self.sample
方法,看一下DDIM采样的实现代码。以下是self.sample
方法的主要内容。这个方法其实就执行了一个self.make_schedule
,之后把所有参数原封不动地传到了self.ddim_sampling
里。
@torch.no_grad()
def sample(self,S,batch_size,shape,conditioning=None,...):if conditioning is not None:...self.make_schedule(ddim_num_steps=S, ddim_eta=eta, verbose=verbose)# samplingC, H, W = shapesize = (batch_size, C, H, W)print(f'Data shape for DDIM sampling is {size}, eta {eta}')samples, intermediates = self.ddim_sampling(...)
self.make_schedule
用于预处理扩散模型的中间计算参数。它的大部分实现细节可以略过。DDIM用到的有效时间戳列表就是在这个函数里设置的,该列表通过make_ddim_timesteps
获取,并保存在self.ddim_timesteps
中。此外,由ddim_eta
决定的扩散模型的方差也是在这个方法里设置的。大致扫完这个方法后,我们可以直接跳到self.ddim_sampling
的代码。
def make_schedule(self, ddim_num_steps, ddim_discretize="uniform", ddim_eta=0., verbose=True):self.ddim_timesteps = make_ddim_timesteps(ddim_discr_method=ddim_discretize, num_ddim_timesteps=ddim_num_steps,num_ddpm_timesteps=self.ddpm_num_timesteps,verbose=verbose)...
穿越重重的嵌套,我们总算能看到DDIM采样的实现方法self.ddim_sampling
了。它的主要内容如下所示:
def ddim_sampling(self, ...):device = self.model.betas.deviceb = shape[0]img = torch.randn(shape, device=device)timesteps = self.ddim_timestepsintermediates = ...time_range = np.flip(timesteps)total_steps = timesteps.shape[0]iterator = tqdm(time_range, desc='DDIM Sampler', total=total_steps)for i, step in enumerate(iterator):index = total_steps - i - 1ts = torch.full((b,), step, device=device, dtype=torch.long)outs = self.p_sample_ddim(img, cond, ts, ...)img, pred_x0 = outsreturn img, intermediates
这段代码和我们之前自己写的伪代码非常相似。一开始,方法获取了在make_schedule
里初始化的DDIM有效时间戳列表self.ddim_timesteps
,并预处理成一个iterator
。该迭代器用于控制DDIM去噪循环。每一轮循环会根据当前时刻的图像img
和时间戳ts
计算下一步的图像img
。具体来说,代码每次用当前的时间戳step
创建一个内容全部为step
,形状为(b,)
的张量ts
。该张量会和当前的隐空间图像img
,约束信息张量cond
一起传给执行一轮DDIM去噪的p_sample_ddim
方法。p_sample_ddim
方法会返回下一步的图像img
。最后,经过多次去噪后,ddim_sampling
方法将去噪后的隐空间图像img
返回。
p_sample_ddim
里的p_sample
看上去似乎意义不明,实际上这个叫法来自于DDPM论文。在DDPM论文中,扩散模型的前向过程用字母q表示,反向过程用字母p表示。因此,反向过程的一轮去噪在代码里被叫做p_sample
。
最后来看一下p_sample_ddim
这个方法,它的主体部分如下:
@torch.no_grad()
def p_sample_ddim(self, x, c, t, ...):b, *_, device = *x.shape, x.deviceif unconditional_conditioning is None or unconditional_guidance_scale == 1.:e_t = self.model.apply_model(x, t, c)else:x_in = torch.cat([x] * 2)t_in = torch.cat([t] * 2)c_in = torch.cat([unconditional_conditioning, c])e_t_uncond, e_t = self.model.apply_model(x_in, t_in, c_in).chunk(2)e_t = e_t_uncond + unconditional_guidance_scale * (e_t - e_t_uncond)# Prepare variables...# current prediction for x_0pred_x0 = (x - sqrt_one_minus_at * e_t) / a_t.sqrt()if quantize_denoised:pred_x0, _, *_ = self.model.first_stage_model.quantize(pred_x0)# direction pointing to x_tdir_xt = (1. - a_prev - sigma_t**2).sqrt() * e_tnoise = sigma_t * noise_like(x.shape, device, repeat_noise) * temperatureif noise_dropout > 0.:noise = torch.nn.functional.dropout(noise, p=noise_dropout)x_prev = a_prev.sqrt() * pred_x0 + dir_xt + noisereturn x_prev, pred_x0
方法的内容大致可以拆成三段:首先,方法调用U-Net self.model
,使用CFG来计算除这一轮该去掉的噪声e_t
。然后,方法预处理出DDIM的中间变量。最后,方法根据DDIM的公式,计算出这一轮去噪后的图片x_prev
。我们着重看第一部分的代码。
不启用CFG时,方法直接通过self.model.apply_model(x, t, c)
调用U-Net,算出这一轮的噪声e_t
。而想启用CFG,需要输入空字符串的约束张量unconditional_conditioning
,且CFG的强度unconditional_guidance_scale
不为1。CFG的执行过程是:对U-Net输入不同的约束c
,先用空字符串约束得到一个预测噪声e_t_uncond
,再用输入的文本约束得到一个预测噪声e_t
。之后令e_t = et_uncond + scale * (e_t - e_t_uncond)
。scale
大于1,即表明我们希望预测噪声更加靠近有输入文本的那一个。直观上来看,scale
越大,最后生成的图片越符合输入文本,越偏离空文本。下面这段代码正是实现了上述这段逻辑,只不过代码使用了一些数据拼接技巧,让空字符串约束下和输入文本约束下的结果在一次U-Net推理中获得。
if unconditional_conditioning is None or unconditional_guidance_scale == 1.:e_t = self.model.apply_model(x, t, c)
else:x_in = torch.cat([x] * 2)t_in = torch.cat([t] * 2)c_in = torch.cat([unconditional_conditioning, c])e_t_uncond, e_t = self.model.apply_model(x_in, t_in, c_in).chunk(2)e_t = e_t_uncond + unconditional_guidance_scale * (e_t - e_t_uncond)
p_sample_ddim
方法的后续代码都是在实现下面这个DDIM采样公式。代码工工整整地计算了公式中的predicted_x0
, dir_xt
, noise
,非常易懂,没有需要特别注意的地方。
我们已经看完了p_sample_ddim
的代码。该方法可以实现一步去噪操作。多次调用该方法去噪后,我们就能得到生成的隐空间图片。该图片会被返回到main函数里,被VAE的解码器解码成普通图片。至此,我们就学完了Stable Diffusion官方仓库的采样代码。
对照下面这份我们之前写的伪代码,我们再来梳理一下Stable Diffusion官方仓库的代码逻辑。官方仓库的采样代码一部分在main函数里,另一部分在ldm/models/diffusion/ddim.py
里。main函数主要完成了编码约束文字、解码隐空间图像这两件事。剩下的DDIM采样以及各种Diffusion图像编辑功能都是在ldm/models/diffusion/ddim.py
文件中实现的。
def ldm_text_to_image(image_shape, text, ddim_steps = 20, eta = 0)ddim_scheduler = DDIMScheduler()vae = VAE()unet = UNet()zt = randn(image_shape)eta = input()T = 1000timesteps = ddim_scheduler.get_timesteps(T, ddim_steps) # [1000, 950, 900, ...]text_encoder = CLIP()c = text_encoder.encode(text)for t = timesteps:eps = unet(zt, t, c)std = ddim_scheduler.get_std(t, eta)zt = ddim_scheduler.get_xt_prev(zt, t, eps, std)xt = vae.decoder.decode(zt)return xt
在学习代码时,要着重学习DDIM采样器部分的代码。大部分基于Diffusion的图像编辑技术都是在DDIM采样的中间步骤中做文章,只要学懂了DDIM采样的代码,学相关图像编辑技术就会非常轻松。除此之外,和LDM相关的文字约束编码、隐空间图像编码解码的接口函数也需要熟悉,不少技术会调用到这几项功能。
还有一些Diffusion相关工作会涉及U-Net的修改。接下来,我们就来看Stable Diffusion官方仓库中U-Net的实现。
2.4 Unet
我们来回头看一下main函数和DDIM采样中U-Net的调用逻辑。和U-Net有关的代码如下所示。LDM模型类 model
在主函数中通过load_model_from_config
从配置文件里创建,随后成为了sampler
的成员变量。在DDIM去噪循环中,LDM模型里的U-Net会在self.model.apply_model
方法里被调用。
# main.py
config = 'configs/stable-diffusion/v1-inference.yaml'
config = OmegaConf.load(config)
model = load_model_from_config(config, ckpt)
sampler = DDIMSampler(model)# ldm/models/diffusion/ddim.py
e_t = self.model.apply_model(x, t, c)
为了知道U-Net是在哪个类里定义的,我们需要打开配置文件 configs/stable-diffusion/v1-inference.yaml
。该配置文件有这样一段话:
model:target: ldm.models.diffusion.ddpm.LatentDiffusionparams:conditioning_key: crossattnunet_config:target: ldm.modules.diffusionmodules.openaimodel.UNetModel
根据这段话,我们知道LDM类定义在ldm/models/diffusion/ddpm.py
的LatentDiffusion
里,U-Net类定义在ldm/modules/diffusionmodules/openaimodel.py
的UNetModel
里。一个LDM类有一个U-Net类的实例。我们先简单看一看LatentDiffusion
类的实现。
ldm/models/diffusion/ddpm.py
原本来自DDPM论文的官方仓库,内含DDPM
类的实现。DDPM
类维护了扩散模型公式里的一些变量,同时维护了U-Net类的实例。LDM的作者基于之前DDPM的代码进行开发,定义了一个继承自DDPM
的LatentDiffusion
类。除了DDPM本身的功能外,LatentDiffusion
还维护了VAE(self.first_stage_model
),CLIP(self.cond_stage_model
)。也就是说,LatentDiffusion
主要维护了扩散模型中间变量、U-Net、VAE、CLIP这四类信息。这样,所有带参数的模型都在LatentDiffusion
里,我们可以从一个checkpoint文件中读取所有的模型的参数。相关代码定义代码如下:
把所有模型定义在一起有好处也有坏处。好处在于,用户想使用Stable Diffusion时,只需要下载一个checkpoint文件就行了。坏处在于,哪怕用户只改了某个子模型(如U-Net),为了保存整个模型,他还是得把其他子模型一起存下来。这其中存在着信息冗余,十分不灵活。Diffusers框架没有把模型全存在一个文件里,而是放到了一个文件夹里。
class DDPM(pl.LightningModule):# classic DDPM with Gaussian diffusion, in image spacedef __init__(self,unet_config,...):self.model = DiffusionWrapper(unet_config, conditioning_key)class LatentDiffusion(DDPM):"""main class"""def __init__(self,first_stage_config,cond_stage_config,...):self.instantiate_first_stage(first_stage_config)self.instantiate_cond_stage(cond_stage_config)
我们主要关注LatentDiffusion
类的apply_model
方法,它用于调用U-Net self.model
。apply_model
看上去有很长,但略过了我们用不到的一些代码后,整个方法其实非常短。一开始,方法对输入的约束信息编码cond
做了一个前处理,判断约束是哪种类型。如论文里所描述的,LDM支持两种约束:将约束与输入拼接、将约束注入到交叉注意力层中。方法会根据self.model.conditioning_key
是concat
还是crossattn
,使用不同的约束方式。Stable Diffusion使用的是后者,即self.model.conditioning_key == crossattn
。做完前处理后,方法执行了x_recon = self.model(x_noisy, t, **cond)
。接下来的处理交给U-Net self.model
来完成。
def apply_model(self, x_noisy, t, cond, return_ids=False):if isinstance(cond, dict):# hybrid case, cond is exptected to be a dictpasselse:if not isinstance(cond, list):cond = [cond]key = 'c_concat' if self.model.conditioning_key == 'concat' else 'c_crossattn'cond = {key: cond}x_recon = self.model(x_noisy, t, **cond)if isinstance(x_recon, tuple) and not return_ids:return x_recon[0]else:return x_recon
现在,我们跳转到ldm/modules/diffusionmodules/openaimodel.py
的UNetModel
类里。UNetModel
只定义了神经网络层的运算,没有多余的功能。我们只需要看它的__init__
方法和forward
方法。我们先来看较为简短的forward
方法。
def forward(self, x, timesteps=None, context=None, y=None,**kwargs):hs = []t_emb = timestep_embedding(timesteps, self.model_channels, repeat_only=False)emb = self.time_embed(t_emb)h = x.type(self.dtype)for module in self.input_blocks:h = module(h, emb, context)hs.append(h)h = self.middle_block(h, emb, context)for module in self.output_blocks:h = th.cat([h, hs.pop()], dim=1)h = module(h, emb, context)h = h.type(x.dtype)return self.out(h)
forward
方法的输入是x, timesteps, context
,分别表示当前去噪时刻的图片、当前时间戳、文本约束编码。根据这些输入,forward
会输出当前时刻应去除的噪声eps
。一开始,方法会先对timesteps
使用Transformer论文中介绍的位置编码timestep_embedding
,得到时间戳的编码t_emb
。t_emb
再经过几个线性层,得到最终的时间戳编码emb
。而context
已经是CLIP处理过的编码,它不需要做额外的预处理。时间戳编码emb
和文本约束编码context
随后会注入到U-Net的所有中间模块中。
def forward(self, x, timesteps=None, context=None, y=None,**kwargs):hs = []t_emb = timestep_embedding(timesteps, self.model_channels, repeat_only=False)emb = self.time_embed(t_emb)
经过预处理后,方法开始处理U-Net的计算。中间结果h
会经过U-Net的下采样模块input_blocks
,每一个子模块的临时输出都会被保存进一个栈hs
里。
h = x.type(self.dtype)
for module in self.input_blocks:h = module(h, emb, context)hs.append(h)
接着,h
会经过U-Net的中间模块。
h = self.middle_block(h, emb, context)
随后,h
开始经过U-Net的上采样模块output_blocks
。此时每一个编码器子模块的临时输出会从栈hs
里弹出,作为对应解码器子模块的额外输入。额外输入hs.pop()
会与中间结果h
拼接到一起输入进子模块里。
for module in self.output_blocks:h = th.cat([h, hs.pop()], dim=1)h = module(h, emb, context)
h = h.type(x.dtype)
最后,h
会被输出层转换成一个通道数正确的eps
张量。
return self.out(h)
这段代码的数据连接图如下所示:
在阅读__init__
前,我们先看一下待会会用到的另一个模块类TimestepEmbedSequential
的定义。在PyTorch中,一系列输入和输出都只有一个变量的模块在串行连接时,可以用串行模块类nn.Sequential
来把多个模块合并简化成一个模块。而在扩散模型中,多数模块的输入是x, t, c
三个变量,输出是一个变量。为了也能用类似的串行模块类把扩散模型的模块合并在一起,代码中包含了一个TimestepEmbedSequential
类。它的行为类似于nn.Sequential
,只不过它支持x, t, c
的输入。forward
中用到的多数模块都是通过TimestepEmbedSequential
创建的。
class TimestepEmbedSequential(nn.Sequential, TimestepBlock):def forward(self, x, emb, context=None):for layer in self:if isinstance(layer, TimestepBlock):x = layer(x, emb)elif isinstance(layer, SpatialTransformer):x = layer(x, context)else:x = layer(x)return x
看完了数据的计算过程,我们回头来看各个子模块在__init__
方法中是怎么被详细定义的。__init__
的主要内容如下:
class UNetModel(nn.Module):def __init__(self, ...):self.time_embed = nn.Sequential(linear(model_channels, time_embed_dim),nn.SiLU(),linear(time_embed_dim, time_embed_dim),)self.input_blocks = nn.ModuleList([TimestepEmbedSequential(conv_nd(dims, in_channels, model_channels, 3, padding=1))])for level, mult in enumerate(channel_mult):for _ in range(num_res_blocks):layers = [ResBlock(...)]ch = mult * model_channelsif ds in attention_resolutions:layers.append(AttentionBlock(...) if not use_spatial_transformer else SpatialTransformer(...))self.input_blocks.append(TimestepEmbedSequential(*layers))if level != len(channel_mult) - 1:out_ch = chself.input_blocks.append(TimestepEmbedSequential(ResBlock(...)if resblock_updownelse Downsample(...)))self.middle_block = TimestepEmbedSequential(ResBlock(...),AttentionBlock(...) if not use_spatial_transformer else SpatialTransformer(...),ResBlock(...),)self.output_blocks = nn.ModuleList([])for level, mult in list(enumerate(channel_mult))[::-1]:for i in range(num_res_blocks + 1):ich = input_block_chans.pop()layers = [ResBlock(...)]ch = model_channels * multif ds in attention_resolutions:layers.append(AttentionBlock(...) if not use_spatial_transformer else SpatialTransformer(...))if level and i == num_res_blocks:out_ch = chlayers.append(ResBlock(...)if resblock_updownelse Upsample(...))ds //= 2self.output_blocks.append(TimestepEmbedSequential(*layers))self.out = nn.Sequential(normalization(ch),nn.SiLU(),zero_module(conv_nd(dims, model_channels, out_channels, 3, padding=1)),)
__init__
方法的代码很长。在阅读这样的代码时,我们不需要每一行都去细读,只需要理解代码能拆成几块,每一块在做什么即可。__init__
方法其实就是定义了forward
中用到的5个模块,我们一个一个看过去即可。
class UNetModel(nn.Module):def __init__(self, ...):self.time_embed = ...self.input_blocks = nn.ModuleList(...)for level, mult in enumerate(channel_mult):...self.middle_block = ...self.output_blocks = nn.ModuleList([])for level, mult in list(enumerate(channel_mult))[::-1]:...self.out = ...
先来看time_embed
。回忆一下,在forward
里,输入的整数时间戳会被正弦编码timestep_embedding
(即Transformer中的位置编码)编码成一个张量。之后,时间戳编码处理模块time_embed
用于进一步提取时间戳编码的特征。从下面的代码中可知,它本质上就是一个由两个普通线性层构成的模块。
self.time_embed = nn.Sequential(linear(model_channels, time_embed_dim),nn.SiLU(),linear(time_embed_dim, time_embed_dim),)
再来看U-Net最后面的输出模块out
。输出模块的结构也很简单,它主要包含了一个卷积层,用于把中间变量的通道数从dims
变成model_channels
。
self.out = nn.Sequential(normalization(ch),nn.SiLU(),zero_module(conv_nd(dims, model_channels, out_channels, 3, padding=1)),)
接下来,我们把目光聚焦在U-Net的三个核心模块上:input_blocks
, middle_block
, output_blocks
。这三个模块的组成都很类似,都用到了残差块ResBlock
和注意力块。稍有不同的是,input_blocks
的每一大层后面都有一个下采样模块,output_blocks
的每一大层后面都有一个上采样模块。上下采样模块的结构都很常规,与经典的U-Net无异。我们把学习的重点放在残差块和注意力块上。我们先看这两个模块的内部实现细节,再来看它们是怎么拼接起来的。
Stable Diffusion的U-Net中的ResBlock
和原DDPM的U-Net的ResBlock
功能完全一样,都是在普通残差块的基础上,支持时间戳编码的额外输入。具体来说,普通的残差块是由两个卷积模块和一条短路连接构成的,即y = x + conv(conv(x))
。如果经过两个卷积块后数据的通道数发生了变化,则要在短路连接上加一个转换通道数的卷积,即y = conv(x) + conv(conv(x))
。
在这种普通残差块的基础上,扩散模型中的残差块还支持时间戳编码t
的输入。为了把t
和输入x
的信息融合在一起,t
会和经过第一个卷积后的中间结果conv(x)
加在一起。可是,t
的通道数和conv(x)
的通道数很可能会不一样。通道数不一样的数据是不能直接加起来的。为此,每一个残差块中都有一个用于转换t
通道数的线性层。这样,t
和conv(x)
就能相加了。整个模块的计算可以表示成y=conv(x) + conv(conv(x) + linear(t))
。残差块的示意图和源代码如下:
class ResBlock(TimestepBlock):def __init__(self, ...):super().__init__()...self.in_layers = nn.Sequential(normalization(channels),nn.SiLU(),conv_nd(dims, channels, self.out_channels, 3, padding=1),)self.emb_layers = nn.Sequential(nn.SiLU(),linear(emb_channels,2 * self.out_channels if use_scale_shift_norm else self.out_channels,),)self.out_layers = nn.Sequential(normalization(self.out_channels),nn.SiLU(),nn.Dropout(p=dropout),zero_module(conv_nd(dims, self.out_channels, self.out_channels, 3, padding=1)),)if self.out_channels == channels:self.skip_connection = nn.Identity()elif use_conv:self.skip_connection = conv_nd(dims, channels, self.out_channels, 3, padding=1)else:self.skip_connection = conv_nd(dims, channels, self.out_channels, 1)def forward(self, x, emb):h = self.in_layers(x)emb_out = self.emb_layers(emb).type(h.dtype)while len(emb_out.shape) < len(h.shape):emb_out = emb_out[..., None]h = h + emb_outh = self.out_layers(h)return self.skip_connection(x) + h
代码中的in_layers
是第一个卷积模块,out_layers
是第二个卷积模块。skip_connection
是用于调整短路连接通道数的模块。若输入输出的通道数相同,则该模块是一个恒等函数,不对数据做任何修改。emb_layers
是调整时间戳编码通道数的线性层模块。这些模块的定义都在ResBlock
的__init__
里。它们的结构都很常规,没有值得注意的地方。我们可以着重阅读模型的forward
方法。
如前文所述,在forward
中,输入x
会先经过第一个卷积模块in_layers
,再与经过了emb_layers
调整的时间戳编码emb
相加后,输入进第二个卷积模块out_layers
。最后,做完计算的数据会和经过了短路连接的原输入skip_connection(x)
加在一起,作为整个残差块的输出。
def forward(self, x, emb):h = self.in_layers(x)emb_out = self.emb_layers(emb).type(h.dtype)while len(emb_out.shape) < len(h.shape):emb_out = emb_out[..., None]h = h + emb_outh = self.out_layers(h)return self.skip_connection(x) + h
这里有一点实现细节需要注意。时间戳编码emb_out
的形状是[n, c]
。为了把它和形状为[n, c, h, w]
的图片加在一起,需要把它的形状变成[n, c, 1, 1]
后再相加(形状为[n, c, 1, 1]
的数据在与形状为[n, c, h, w]
的数据做加法时形状会被自动广播成[n, c, h, w]
)。在PyTorch中,x=x[..., None]
可以在一个数据最后加一个长度为1的维度。比如对于形状为[n, c]
的t
,t[..., None]
的形状就会是[n, c, 1]
。
残差块的内容到此结束。我们接着来看注意力模块。在看模块的具体实现之前,我们先看一下源代码中有哪几种注意力模块。在U-Net的代码中,注意力模型是用以下代码创建的:
if ds in attention_resolutions:layers.append(AttentionBlock(...) if not use_spatial_transformer else SpatialTransformer(...))
第一行if ds in attention_resolutions:
用于控制在U-Net的哪几个大层。Stable Diffusion每一大层都用了注意力模块,可以忽略这一行。随后,代码根据是否设置use_spatial_transformer
来创建AttentionBlock
或是SpatialTransformer
。AttentionBlock
是DDPM中采样的普通自注意力模块,而SpatialTransformer
是LDM中提出的支持额外约束的标准Transfomer块。Stable Diffusion使用的是SpatialTransformer
。我们就来看一看这个模块的实现细节。
如前所述,SpatialTransformer
使用的是标准的Transformer块,它和Transformer中的Transformer块完全一致。输入x
先经过一个自注意力层,再过一个交叉注意力层。在此期间,约束编码c
会作为交叉注意力层的K, V
输入进模块。最后,数据经过一个全连接层。每一层的输入都会和输出做一个残差连接。
当然,标准Transformer是针对一维序列数据的。要把Transformer用到图像上,则需要把图像的宽高拼接到同一维,即对张量做形状变换n c h w -> n c (h * w)
。做完这个变换后,就可以把数据直接输入进Transformer模块了。
这些图像数据与序列数据的适配都是在SpatialTransformer
类里完成的。SpatialTransformer
类并没有直接实现Transformer块的细节,仅仅是U-Net和Transformer块之间的一个过渡。Transformer块的实现在它的一个子模块里。我们来看它的实现代码。
SpatialTransformer
有两个卷积层proj_in
, proj_out
,负责图像通道数与Transformer模块通道数之间的转换。SpatialTransformer
的transformer_blocks
才是真正的Transformer模块。
class SpatialTransformer(nn.Module):def __init__(self, in_channels, n_heads, d_head,depth=1, dropout=0., context_dim=None):super().__init__()self.in_channels = in_channelsinner_dim = n_heads * d_headself.norm = Normalize(in_channels)self.proj_in = nn.Conv2d(in_channels,inner_dim,kernel_size=1,stride=1,padding=0)self.transformer_blocks = nn.ModuleList([BasicTransformerBlock(inner_dim, n_heads, d_head, dropout=dropout, context_dim=context_dim)for d in range(depth)])self.proj_out = zero_module(nn.Conv2d(inner_dim,in_channels,kernel_size=1,stride=1,padding=0))
在forward
中,图像数据在进出Transformer模块前后都会做形状和通道数上的适配。运算结束后,结果和输入之间还会做一个残差连接。context
就是约束信息编码,它会接入到交叉注意力层上。
def forward(self, x, context=None):b, c, h, w = x.shapex_in = xx = self.norm(x)x = self.proj_in(x)x = rearrange(x, 'b c h w -> b (h w) c')for block in self.transformer_blocks:x = block(x, context=context)x = rearrange(x, 'b (h w) c -> b c h w', h=h, w=w)x = self.proj_out(x)return x + x_in
每一个Transformer模块的结构完全符合上文的示意图。如果你之前学过Transformer,那这些代码你会十分熟悉。我们快速把这部分代码浏览一遍。
class BasicTransformerBlock(nn.Module):def __init__(self, dim, n_heads, d_head, dropout=0., context_dim=None, gated_ff=True, checkpoint=True):super().__init__()self.attn1 = CrossAttention(query_dim=dim, heads=n_heads, dim_head=d_head, dropout=dropout) # is a self-attentionself.ff = FeedForward(dim, dropout=dropout, glu=gated_ff)self.attn2 = CrossAttention(query_dim=dim, context_dim=context_dim,heads=n_heads, dim_head=d_head, dropout=dropout) # is self-attn if context is noneself.norm1 = nn.LayerNorm(dim)self.norm2 = nn.LayerNorm(dim)self.norm3 = nn.LayerNorm(dim)self.checkpoint = checkpointdef forward(self, x, context=None):x = self.attn1(self.norm1(x)) + xx = self.attn2(self.norm2(x), context=context) + xx = self.ff(self.norm3(x)) + xreturn x
自注意力层和交叉注意力层都是用CrossAttention
类实现的。该模块与Transformer论文中的多头注意力机制完全相同。当forward
的参数context=None
时,模块其实只是一个提取特征的自注意力模块;而当context
为约束文本的编码时,模块就是一个根据文本约束进行运算的交叉注意力模块。该模块用不到mask
,相关的代码可以忽略。
class CrossAttention(nn.Module):def __init__(self, query_dim, context_dim=None, heads=8, dim_head=64, dropout=0.):super().__init__()inner_dim = dim_head * headscontext_dim = default(context_dim, query_dim)self.scale = dim_head ** -0.5self.heads = headsself.to_q = nn.Linear(query_dim, inner_dim, bias=False)self.to_k = nn.Linear(context_dim, inner_dim, bias=False)self.to_v = nn.Linear(context_dim, inner_dim, bias=False)self.to_out = nn.Sequential(nn.Linear(inner_dim, query_dim),nn.Dropout(dropout))def forward(self, x, context=None, mask=None):h = self.headsq = self.to_q(x)context = default(context, x)k = self.to_k(context)v = self.to_v(context)q, k, v = map(lambda t: rearrange(t, 'b n (h d) -> (b h) n d', h=h), (q, k, v))sim = einsum('b i d, b j d -> b i j', q, k) * self.scaleif exists(mask):...# attention, what we cannot get enough ofattn = sim.softmax(dim=-1)out = einsum('b i j, b j d -> b i d', attn, v)out = rearrange(out, '(b h) n d -> b n (h d)', h=h)return self.to_out(out)
Transformer块的内容到此结束。看完了SpatialTransformer
和ResBlock
,我们可以回头去看模块之间是怎么拼接的了。先来看U-Net的中间块。它其实就是一个ResBlock
接一个SpatialTransformer
再接一个ResBlock
。
self.middle_block = TimestepEmbedSequential(ResBlock(...),SpatialTransformer(...),ResBlock(...),
)
下采样块input_blocks
和上采样块output_blocks
的结构几乎一模一样,区别只在于每一大层最后是做下采样还是上采样。这里我们以下采样块为例来学习一下这两个块的结构。
self.input_blocks = nn.ModuleList([TimestepEmbedSequential(conv_nd(dims, in_channels, model_channels, 3, padding=1))]
)for level, mult in enumerate(channel_mult):for _ in range(num_res_blocks):layers = [ResBlock(...)]ch = mult * model_channelsif ds in attention_resolutions:layers.append(AttentionBlock(...) if not use_spatial_transformer else SpatialTransformer(...))self.input_blocks.append(TimestepEmbedSequential(*layers))if level != len(channel_mult) - 1:out_ch = chself.input_blocks.append(TimestepEmbedSequential(ResBlock(...)if resblock_updownelse Downsample(...)))
上采样块一开始是一个调整输入图片通道数的卷积层,它的作用和self.out
输出层一样。
self.input_blocks = nn.ModuleList([TimestepEmbedSequential(conv_nd(dims, in_channels, model_channels, 3, padding=1))]
)
之后正式进行上采样块的构造。此处代码有两层循环,外层循环表示正在构造哪一个大层,内层循环表示正在构造该大层的哪一组模块。也就是说,共有len(channel_mult)
个大层,每一大层都有num_res_blocks
组相同的模块。在Stable Diffusion中,channel_mult=[1, 2, 4, 4]
, num_res_blocks=2
。
for level, mult in enumerate(channel_mult):for _ in range(num_res_blocks):...
每一组模块由一个ResBlock
和一个SpatialTransformer
构成。
layers = [ResBlock(...)
]
ch = mult * model_channels
if ds in attention_resolutions:...layers.append(SpatialTransformer(...))
self.input_blocks.append(TimestepEmbedSequential(*layers))
...
构造完每一组模块后,若现在还没到最后一个大层,则添加一个下采样模块。Stable Diffusion有4个大层,只有运行到前3个大层时才会添加下采样模块。
for level, mult in enumerate(channel_mult):for _ in range(num_res_blocks):...if level != len(channel_mult) - 1:out_ch = chself.input_blocks.append(TimestepEmbedSequential(ResBlock(...)if resblock_updownelse Downsample(...)))ch = out_chinput_block_chans.append(ch)ds *= 2
至此,我们已经学完了Stable Diffusion的U-Net的主要实现代码。让我们来总结一下。U-Net是一种先对数据做下采样,再做上采样的网络结构。为了防止信息丢失,下采样模块和对应的上采样模块之间有残差连接。下采样块、中间块、上采样块都包含了ResBlock
和SpatialTransformer
两种模块。ResBlock
是图像网络中常使用的残差块,而SpatialTransformer
是能够融合图像全局信息并融合不同模态信息的Transformer块。Stable Diffusion的U-Net的输入除了有图像外,还有时间戳t
和约束编码c
。t
会先过几个嵌入层和线性层,再输入进每一个ResBlock
中。c
会直接输入到所有Transformer块的交叉注意力块中。
3. Diffusers
Diffusers是由Hugging Face维护的一套Diffusion框架。这个库的代码被封装进了一个Python模块里,我们可以在安装了Diffusers的Python环境中用import diffusers
随时调用该库。相比之下,Diffusers的代码架构更加清楚,且各类Stable Diffusion的新技术都会及时集成进Diffusers库中。
由于我们已经在上文中学过了Stable Diffusion官方源码,在学习Diffusers代码时,我们只会大致过一过每一段代码是在做什么,而不会赘述Stable Diffusion的原理。
3.1 安装
安装该库时,不需要克隆仓库,只需要直接用pip即可。
pip install --upgrade diffusers[torch]
之后,随便在某个地方创建一个Python脚本文件,输入官方的示例项目代码。
from diffusers import DiffusionPipeline
import torchpipeline = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", torch_dtype=torch.float16)
pipeline.to("cuda")
pipeline("An image of a squirrel in Picasso style").images[0].save('output.jpg')
运行代码后,”一幅毕加索风格的松鼠图片”的绘制结果会保存在output.jpg
中。
在Diffusers中,from_pretrained
函数可以直接从Hugging Face的模型仓库中下载预训练模型。比如,示例代码中from_pretrained("runwayml/stable-diffusion-v1-5", ...)
指的就是从模型仓库https://huggingface.co/runwayml/stable-diffusion-v1-5
中获取模型。
如果在当前网络下无法从命令行中访问Hugging Face,可以先想办法在网页上访问上面的模型仓库,手动下载v1-5-pruned.ckpt
。之后,克隆Diffusers的GitHub仓库,再用Diffusers的工具把Stable Diffusion模型文件转换成Diffusers支持的模型格式。
git clone git@github.com:huggingface/diffusers.git
cd diffusers
python scripts/convert_original_stable_diffusion_to_diffusers.py --checkpoint_path <src> --dump_path <dst>
比如,假设你的模型文件存在ckpt/v1-5-pruned.ckpt
,你想把输出的Diffusers的模型文件存在ckpt/sd15
,则应该输入:
python scripts/convert_original_stable_diffusion_to_diffusers.py --checkpoint_path ckpt/v1-5-pruned.ckpt --dump_path ckpt/sd15
之后修改示例脚本中的路径,就可以成功运行了。
from diffusers import DiffusionPipeline
import torchpipeline = DiffusionPipeline.from_pretrained("ckpt/sd15", torch_dtype=torch.float16)
pipeline.to("cuda")
pipeline("An image of a squirrel in Picasso style").images[0].save('output.jpg')
对于其他的原版SD checkpoint(比如在civitai上下载的),也可以用同样的方式把它们转换成Diffusers兼容的版本。
3.2 采样
Diffusers使用Pipeline
来管理一类图像生成算法。和图像生成相关的模块(如U-Net,DDIM采样器)都是Pipeline
的成员变量。打开Diffusers版Stable Diffusion模型的配置文件model_index.json
(在 https://huggingface.co/runwayml/stable-diffusion-v1-5/blob/main/model_index.json 网页上直接访问或者在本地的模型文件夹中找到),我们能看到该模型使用的Pipeline
:
{"_class_name": "StableDiffusionPipeline",...
}
在diffusers/pipelines/stable_diffusion/pipeline_stable_diffusion.py
中,我们能找到StableDiffusionPipeline
类的定义。所有Pipeline
类的代码都非常长,一般我们可以忽略其他部分,只看运行方法__call__
里的内容。
def __call__(self,prompt: Union[str, List[str]] = None,height: Optional[int] = None,width: Optional[int] = None,num_inference_steps: int = 50,timesteps: List[int] = None,guidance_scale: float = 7.5,negative_prompt: Optional[Union[str, List[str]]] = None,num_images_per_prompt: Optional[int] = 1,eta: float = 0.0,...
):# 0. Default height and width to unetheight = height or self.unet.config.sample_size * self.vae_scale_factorwidth = width or self.unet.config.sample_size * self.vae_scale_factor# to deal with lora scaling and other possible forward hooks# 1. Check inputs. Raise error if not correctself.check_inputs(...)# 2. Define call parametersbatch_size = ...device = self._execution_device# 3. Encode input promptprompt_embeds, negative_prompt_embeds = self.encode_prompt(...)# For classifier free guidance, we need to do two forward passes.# Here we concatenate the unconditional and text embeddings into a single batch# to avoid doing two forward passesif self.do_classifier_free_guidance:prompt_embeds = torch.cat([negative_prompt_embeds, prompt_embeds])# 4. Prepare timestepstimesteps, num_inference_steps = retrieve_timesteps(self.scheduler, num_inference_steps, device, timesteps)# 5. Prepare latent variablesnum_channels_latents = self.unet.config.in_channelslatents = self.prepare_latents(...)# 6. Prepare extra step kwargs. TODO: Logic should ideally just be moved out of the pipeline...# 7. Denoising loopnum_warmup_steps = len(timesteps) - num_inference_steps * self.scheduler.orderself._num_timesteps = len(timesteps)with self.progress_bar(total=num_inference_steps) as progress_bar:for i, t in enumerate(timesteps):# expand the latents if we are doing classifier free guidancelatent_model_input = torch.cat([latents] * 2) if self.do_classifier_free_guidance else latentslatent_model_input = self.scheduler.scale_model_input(latent_model_input, t)# predict the noise residualnoise_pred = self.unet(latent_model_input,t,encoder_hidden_states=prompt_embeds,...)[0]# perform guidanceif self.do_classifier_free_guidance:noise_pred_uncond, noise_pred_text = noise_pred.chunk(2)noise_pred = noise_pred_uncond + self.guidance_scale * (noise_pred_text - noise_pred_uncond)if self.do_classifier_free_guidance and self.guidance_rescale > 0.0:# Based on 3.4. in https://arxiv.org/pdf/2305.08891.pdfnoise_pred = rescale_noise_cfg(noise_pred, noise_pred_text, guidance_rescale=self.guidance_rescale)# compute the previous noisy sample x_t -> x_t-1latents = self.scheduler.step(noise_pred, t, latents, **extra_step_kwargs, return_dict=False)[0]# call the callback, if providedif i == len(timesteps) - 1 or ((i + 1) > num_warmup_steps and (i + 1) % self.scheduler.order == 0):progress_bar.update()if not output_type == "latent":image = self.vae.decode(latents / self.vae.config.scaling_factor, return_dict=False, generator=generator)[0]image, has_nsfw_concept = self.run_safety_checker(image, device, prompt_embeds.dtype)else:image = latentshas_nsfw_concept = None...return StableDiffusionPipelineOutput(images=image, nsfw_content_detected=has_nsfw_concept)
虽然这段代码很长,但代码中的关键内容和我们在本文开头写的伪代码完全一致。
def ldm_text_to_image(image_shape, text, ddim_steps = 20, eta = 0)ddim_scheduler = DDIMScheduler()vae = VAE()unet = UNet()zt = randn(image_shape)eta = input()T = 1000timesteps = ddim_scheduler.get_timesteps(T, ddim_steps) # [1000, 950, 900, ...]text_encoder = CLIP()c = text_encoder.encode(text)for t = timesteps:eps = unet(zt, t, c)std = ddim_scheduler.get_std(t, eta)zt = ddim_scheduler.get_xt_prev(zt, t, eps, std)xt = vae.decoder.decode(zt)return xt
我们可以对照着上面的伪代码来阅读这个方法。经过Diffusers框架本身的一些前处理后,方法先获取了约束文本的编码。
# 3. Encode input prompt
# c = text_encoder.encode(text)
prompt_embeds, negative_prompt_embeds = self.encode_prompt(...)
方法再从采样器里获取了要用到的时间戳,并随机生成了一个初始噪声。
# Preprocess
...# 4. Prepare timesteps
# timesteps = ddim_scheduler.get_timesteps(T, ddim_steps)
timesteps, num_inference_steps = retrieve_timesteps(self.scheduler, num_inference_steps, device, timesteps)# 5. Prepare latent variables
# zt = randn(image_shape)
num_channels_latents = self.unet.config.in_channels
latents = self.prepare_latents(...
)
做完准备后,方法进入去噪循环。循环一开始是用U-Net算出当前应去除的噪声noise_pred
。由于加入了CFG,U-Net计算的前后有一些对数据形状处理的代码。
with self.progress_bar(total=num_inference_steps) as progress_bar:for i, t in enumerate(timesteps):# eps = unet(zt, t, c)# expand the latents if we are doing classifier free guidancelatent_model_input = torch.cat([latents] * 2) if self.do_classifier_free_guidance else latentslatent_model_input = self.scheduler.scale_model_input(latent_model_input, t)# predict the noise residualnoise_pred = self.unet(latent_model_input,t,encoder_hidden_states=prompt_embeds,...)[0]# perform guidanceif self.do_classifier_free_guidance:noise_pred_uncond, noise_pred_text = noise_pred.chunk(2)noise_pred = noise_pred_uncond + self.guidance_scale * (noise_pred_text - noise_pred_uncond)if self.do_classifier_free_guidance and self.guidance_rescale > 0.0:# Based on 3.4. in https://arxiv.org/pdf/2305.08891.pdfnoise_pred = rescale_noise_cfg(noise_pred, noise_pred_text, guidance_rescale=self.guidance_rescale)
有了应去除的噪声,方法会调用扩散模型采样器对当前的噪声图片进行更新。Diffusers把采样的逻辑全部封装进了采样器的step
方法里。对于包括DDIM在内的所有采样器,都可以调用这个通用的接口,完成一步采样。eta
等采样器参数会通过**extra_step_kwargs
传入采样器的step
方法里。
# std = ddim_scheduler.get_std(t, eta)
# zt = ddim_scheduler.get_xt_prev(zt, t, eps, std)# compute the previous noisy sample x_t -> x_t-1
latents = self.scheduler.step(noise_pred, t, latents, **extra_step_kwargs, return_dict=False)[0]
经过若干次循环后,我们得到了隐空间下的生成图片。我们还需要调用VAE把隐空间图片解码成普通图片。代码中的self.vae.decode(latents / self.vae.config.scaling_factor, ...)
用于解码图片。
if not output_type == "latent":image = self.vae.decode(latents / self.vae.config.scaling_factor, return_dict=False, generator=generator)[0]image, has_nsfw_concept = self.run_safety_checker(image, device, prompt_embeds.dtype)
else:image = latentshas_nsfw_concept = None...return StableDiffusionPipelineOutput(images=image, nsfw_content_detected=has_nsfw_concept)
就这样,我们很快就看完了Diffusers的采样代码。相比之下,Diffusers的封装确实更合理,主要的图像生成逻辑都写在Pipeline
类的__call__
里,剩余逻辑都封装在VAE、U-Net、采样器等各自的类里。
3.3 Unet
接下来我们来看Diffusers中的U-Net实现。还是打开模型配置文件model_index.json
,我们可以找到U-Net的类名。
{..."unet": ["diffusers","UNet2DConditionModel"],...
}
在diffusers/models/unet_2d_condition.py
文件中,我们可以找到类UNet2DConditionModel
。由于Diffusers集成了非常多新特性,整个文件就像一锅大杂烩一样,掺杂着各种功能的实现代码。不过,这份U-Net的实现还是基于原版Stable Diffusion的U-Net进行开发的,原版代码的每一部分都能在这份代码里找到对应。在阅读代码时,我们可以跳过无关的功能,只看我们在Stable Diffusion官方仓库中见过的部分。
先看初始化函数的主要内容。初始化函数依然主要包括time_proj, time_embedding
, down_blocks
, mid_block
, up_blocks
, conv_in
, conv_out
这几个模块。
class UNet2DConditionModel(ModelMixin, ConfigMixin, UNet2DConditionLoadersMixin):def __init__(...):...self.conv_in = nn.Conv2d(in_channels, block_out_channels[0], kernel_size=conv_in_kernel, padding=conv_in_padding)...elif time_embedding_type == "positional":self.time_proj = Timesteps(block_out_channels[0], flip_sin_to_cos, freq_shift)...self.time_embedding = TimestepEmbedding(...)self.down_blocks = nn.ModuleList([])self.up_blocks = nn.ModuleList([])for i, down_block_type in enumerate(down_block_types):...down_block = get_down_block(...)if mid_block_type == ...self.mid_block = ...for i, up_block_type in enumerate(up_block_types):up_block = get_up_block(...)self.conv_out = nn.Conv2d(...)
其中,较为重要的down_blocks
, mid_block
, up_blocks
都是根据模块类名称来创建的。我们可以在Diffusers的Stable Diffusion模型文件夹的U-Net的配置文件unet/config.json
中找到对应的模块类名称。
{..."down_block_types": ["CrossAttnDownBlock2D","CrossAttnDownBlock2D","CrossAttnDownBlock2D","DownBlock2D"],"mid_block_type": "UNetMidBlock2DCrossAttn","up_block_types": ["UpBlock2D","CrossAttnUpBlock2D","CrossAttnUpBlock2D","CrossAttnUpBlock2D"],...
}
在diffusers/models/unet_2d_blocks.py
中,我们可以找到这几个模块类的定义。和原版代码一样,这几个模块的核心组件都是残差块和Transformer块。在Diffusers中,残差块叫做ResnetBlock2D
,Transformer块叫做Transformer2DModel
。这几个类的执行逻辑和原版仓库的也几乎一样。比如CrossAttnDownBlock2D
的定义如下:
class CrossAttnDownBlock2D(nn.Module):def __init__(...):for i in range(num_layers):resnets.append(ResnetBlock2D(...))if not dual_cross_attention:attentions.append(Transformer2DModel(...))
接着我们来看U-Net的forward
方法。忽略掉其他功能的实现,该方法的主要内容如下:
def forward(self,sample: torch.FloatTensor,timestep: Union[torch.Tensor, float, int],encoder_hidden_states: torch.Tensor,...):# 0. center input if necessaryif self.config.center_input_sample:sample = 2 * sample - 1.0# 1. timetimesteps = timestept_emb = self.time_proj(timesteps)emb = self.time_embedding(t_emb, timestep_cond)# 2. pre-processsample = self.conv_in(sample)# 3. downdown_block_res_samples = (sample,)for downsample_block in self.down_blocks:sample, res_samples = downsample_block(hidden_states=sample,temb=emb,encoder_hidden_states=encoder_hidden_states,...)down_block_res_samples += res_samples# 4. midsample = self.mid_block(sample,emb,encoder_hidden_states=encoder_hidden_states,...)# 5. upfor i, upsample_block in enumerate(self.up_blocks):res_samples = down_block_res_samples[-len(upsample_block.resnets) :]down_block_res_samples = down_block_res_samples[: -len(upsample_block.resnets)]sample = upsample_block(hidden_states=sample,temb=emb,res_hidden_states_tuple=res_samples,encoder_hidden_states=encoder_hidden_states,...)# 6. post-processsample = self.conv_out(sample)return UNet2DConditionOutput(sample=sample)
该方法和原版仓库的实现差不多,唯一要注意的是栈相关的实现。在方法的下采样计算中,每个downsample_block
会返回多个残差输出的元组res_samples
,该元组会拼接到栈down_block_res_samples
的栈顶。在上采样计算中,代码会根据当前的模块个数,从栈顶一次取出len(upsample_block.resnets)
个残差输出。
down_block_res_samples = (sample,)
for downsample_block in self.down_blocks:sample, res_samples = downsample_block(...)down_block_res_samples += res_samplesfor i, upsample_block in enumerate(self.up_blocks):res_samples = down_block_res_samples[-len(upsample_block.resnets) :]down_block_res_samples = down_block_res_samples[: -len(upsample_block.resnets)]sample = upsample_block(...)
现在,我们已经看完了Diffusers中U-Net的主要内容。可以看出,Diffusers的U-Net包含了很多功能,一般情况下是难以自己更改这些代码的。有没有什么办法能方便地修改U-Net的实现呢?由于很多工作都需要修改U-Net的Attention,Diffusers给U-Net添加了几个方法,用于精确地修改每一个Attention模块的实现。我们来学习一个修改Attention模块的示例。
U-Net类的attn_processors
属性会返回一个词典,它的key是每个Attention运算类所在位置,比如down_blocks.0.attentions.0.transformer_blocks.0.attn1.processor
,它的value是每个Attention运算类的实例。默认情况下,每个Attention运算类都是AttnProcessor
,它的实现在diffusers/models/attention_processor.py
文件中。
为了修改Attention运算的实现,我们需要构建一个格式一样的词典attn_processor_dict
,再调用unet.set_attn_processor(attn_processor_dict)
,取代原来的attn_processors
。假如我们自己实现了另一个Attention运算类MyAttnProcessor
,我们可以编写下面的代码来修改Attention的实现:
attn_processor_dict = {}
for k in unet.attn_processors.keys():if we_want_to_modify(k):attn_processor_dict[k] = MyAttnProcessor()else:attn_processor_dict[k] = AttnProcessor()unet.set_attn_processor(attn_processor_dict)
MyAttnProcessor
的唯一要求是,它需要实现一个__call__
方法,且方法参数与AttnProcessor
的一致。除此之外,我们可以自由地实现Attention处理的细节。一般来说,我们可以先把原来AttnProcessor
的实现代码复制过去,再对某些细节做修改。
总结
本周通过深入分析Stable Diffusion的实现代码,加深了对其采样算法和U-Net结构的理解。这为后续研究和应用Stable Diffusion打下了坚实基础。通过不同框架下的探索,提升了对代码实现的适应能力。
相关文章:
Stable Diffusion的解读(二)
Stable Diffusion的解读(二) 文章目录 Stable Diffusion的解读(二)摘要Abstract一、机器学习部分1. 算法梳理1.1 LDM采样算法1.2 U-Net结构组成 2. Stable Diffusion 官方 GitHub 仓库2.1 安装2.2 主函数2.3 DDIM采样器2.4 Unet 3…...
amd显卡和nVidia显卡哪个好 amd和英伟达的区别介绍
AMD和英伟达是目前市场上最主要的两大显卡品牌,它们各有自己的特点和优势,也有不同的适用场景和用户群体。那么,AMD显卡和英伟达显卡到底哪个好?它们之间有什么区别?我们又该如何选择呢?本文将从以下几个方…...
软件测试—— Selenium 常用函数(一)
前一篇文章:软件测试 —— 自动化基础-CSDN博客 目录 前言 一、窗口 1.屏幕截图 2.切换窗口 3.窗口设置大小 4.关闭窗口 二、等待 1.等待意义 2.强制等待 3.隐式等待 4.显式等待 总结 前言 在前一篇文章中,我们介绍了自动化的一些基础知识&a…...
为什么verilog中递归函数需要定义为automatic?
直接上代码 module automatic_tb;reg [7:0] value;initial begin #0 value < 8d5;#10 $display("result of automatic: %0d", factor_automatic(value));$display("result of static: %0d", factor_static(value));#50 $stop; endfunction reg[7:0] fa…...
23种设计模式-状态(State)设计模式
文章目录 一.什么是状态模式?二.状态模式的结构三.状态模式的应用场景四.状态模式的优缺点五.状态模式的C实现六.状态模式的JAVA实现七.代码解释八.总结 类图: 状态设计模式类图 一.什么是状态模式? 状态模式(State Pattern&…...
EventListener与EventBus
EventListener JDK JDK1.1开始就提供EventListener,一个标记接口,源码如下: /*** A tagging interface that all event listener interfaces must extend.*/ public interface EventListener { }JDK提供的java.util.EventObject࿱…...
Facebook为什么注册失败了?该怎么解决?
有时候用户在尝试注册Facebook账号时可能会遇到各种问题,导致注册失败或遇到困难。小编会为大家分析Facebook注册失败的可能原因,并提供解决方法,帮助大家顺利完成注册流程。 一、Facebook注册失败的可能原因 1. 账号信息问题: …...
前端数据可视化思路及实现案例
目录 一、前端数据可视化思路 (一)明确数据与目标 (二)选择合适的可视化图表类型 (三)数据与图表的绑定及交互设计 (四)页面布局与样式设计 二、具体案例:使用 Ech…...
【DVWA】Brute Force暴力破解实战
问尔辈 何等样人 自摸心头 再来求我;若汝能 克存忠孝 持身正直 不拜何妨 1.Brute Force(Low) 相关的代码分析 if( isset( $_GET[ Login ] ) ) {// Get username$user $_GET[ username ];// Check the database$query "SELECT * FROM users WHERE user $…...
23种设计模式速记法
前言 在软件开发的过程中,设计模式作为解决常见问题的通用模板,一直是开发者的重要工具。尤其是在面临复杂系统架构和需求变化时,设计模式不仅能够提升代码的可复用性和扩展性,还能大大提高团队之间的协作效率。然而,…...
第7章硬件测试-7.3 功能测试
7.3 功能测试 7.3.1 整机规格测试7.3.2 整机试装测试7.3.3 DFX测试 功能测试包括整机规格、整机试装和整机功能测试,是整机结构和业务相关的测试。 7.3.1 整机规格测试 整机规格测试包括尺寸、重量、温度、功耗等数据。这些测试数据与设计规格进行比对和校验&…...
动态规划子数组系列一>等差数列划分
题目: 解析: 代码: public int numberOfArithmeticSlices(int[] nums) {int n nums.length;int[] dp new int[n];int ret 0;for(int i 2; i < n; i){dp[i] nums[i] - nums[i-1] nums[i-1] - nums[i-2] ? dp[i-1]1 : 0;ret dp[i…...
《Python浪漫的烟花表白特效》
一、背景介绍 烟花象征着浪漫与激情,将它与表白结合在一起,会创造出别具一格的惊喜效果。使用Python的turtle模块,我们可以轻松绘制出动态的烟花特效,再配合文字表白,打造一段专属的浪漫体验。 接下来,让…...
什么是RESTful API,有什么特点
RESTful API 概述 什么是 RESTful API? RESTful API 是基于 Representational State Transfer(表现层状态转移)架构风格的 Web 服务接口。REST 是一种设计风格,而不是具体的协议或标准。它定义了一组约束和最佳实践,…...
友思特新闻 | 友思特荣获广州科技创新创业大赛智能装备行业赛初创组优胜企业!
2024年11月19日,第十三届中国创新创业大赛(广东广州赛区)暨2024年广州科技创新创业大赛智能装备行业赛颁奖典礼隆重举行。 赛事奖项介绍:广州科技创新创业大赛智能装备行业赛 第十三届“中国创新创业大赛(广东广州赛区…...
CSS中calc语法不生效
问题起因 在使用calc时发现无法生效,写法是: height:calc(100vh-100px);页面无效果,加空格后就发现有效果了: height:calc(100vh - 100px);这是为什么? calc是什么? css3 的计算属性,用于动态…...
国标GB28181视频平台EasyCVR视频融合平台H.265/H.264转码业务流程
在当今数字化、网络化的视频监控领域,大中型项目对于视频监控管理平台的需求日益增长,特别是在跨区域、多设备、高并发的复杂环境中。EasyCVR视频监控汇聚管理平台正是为了满足这些需求而设计的,它不仅提供了全面的管理功能,还支持…...
ES6 模板字符串详解
ES6 模板字符串详解 ES6(ECMAScript 6)引入了模板字符串(Template Literals),这是一种新的字符串字面量语法,使用反引号()来定义字符串。模板字符串不仅支持多行字符串,…...
浏览器插件启动本地程序
浏览器插件支持启动本地程序,且支持win、mac、linux多个平台,使用的是nativeMessaging。nativeMessaging官方api说明。nativeMessaging支持启动本地程序且进行通信。 我们直接拿官方提供的例子进行说明,github地址。 以win为例 1、添加注册…...
Ubuntu ESP32开发环境搭建
文章目录 ESP32开发环境搭建安装ESP-IDF搭建一个最小工程现象 ESP32开发环境搭建 最近有个小项目需要用到能够联网的mcu驱动,准备玩玩esp的芯片,记录下ESP32开发环境搭建的过程。 ESP-IDF 是乐鑫科技为其 ESP32 系列芯片提供的官方开发框架。这个框架主…...
【gitlab】部署
直接RPM安装 部署的方式是:使用外部的nginx作为代理,使用https方式。 1、下载安装文件 gitlab-ce-17.0.3-ce.0.el7.x86_64.rpm 2、安装 yum install gitlab-ce-17.0.3-ce.0.el7.x86_64.rpm 或者安装yum源在线安装: 添加镜像源:新建 /et…...
vue中路由缓存
vue中路由缓存 问题描述及截图解决思路关键代码及打印信息截图 问题描述及截图 在使用某一平台时发现当列表页码切换后点击某一卡片进入详情页后,再返回列表页时页面刷新了。这样用户每次看完详情回到列表页都得再重新输入自己的查询条件,或者切换分页到…...
Github 2024-11-18 开源项目周报 Top15
根据Github Trendings的统计,本周(2024-11-18统计)共有15个项目上榜。根据开发语言中项目的数量,汇总情况如下: 开发语言项目数量Python项目8TypeScript项目4Jupyter Notebook项目2Go项目2Shell项目1OpenHands: 人工智能驱动的软件开发代理平台 创建周期:195 天开发语言:P…...
GRCNN使用onnxruntime和tensorrt推理
下载GRCNN项目:https://github.com/skumra/robotic-grasping.git 导出onnx模型: import torchnet torch.load("trained-models/jacquard-rgbd-grconvnet3-drop0-ch32/epoch_42_iou_0.93") x torch.rand(1, 4, 300, 300).cuda() torch.onnx.…...
java中的this关键字
🎉🎉🎉欢迎来到我的博客,我是一名自学了2年半前端的大一学生,熟悉的技术是JavaScript与Vue.目前正在往全栈方向前进, 如果我的博客给您带来了帮助欢迎您关注我,我将会持续不断的更新文章!!!🙏🙏🙏 文章目录…...
Easyexcel(3-文件导出)
相关文章链接 Easyexcel(1-注解使用)Easyexcel(2-文件读取)Easyexcel(3-文件导出) 响应头设置 通过设置文件导出的响应头,可以自定义文件导出的名字信息等 //编码格式为UTF-8 response.setC…...
iOS应用网络安全之HTTPS
移动互联网开发中iOS应用的网络安全问题往往被大部分开发者忽略, iOS9和OS X 10.11开始Apple也默认提高了安全配置和要求. 本文以iOS平台App开发中对后台数据接口的安全通信进行解析和加固方法的分析. 1. HTTPS/SSL的基本原理 安全套接字层 (Secure Socket Layer, SSL) 是用来…...
openharmony napi调试笔记
一、动态库的编译 使用的编译环境是ubuntu20.04 1、使用vscode配置openharmony sdk交叉编译环境 首先下载openharmony的sdk,如native-linux-x64-4.1.7.5-Release.zip 解压后native目录下就是交叉编译用的sdk 在要编译的源代码目录下新建.vscode目录,…...
springboot基于微信小程序的农产品交易平台
摘 要 随着网络科技的发展,利用小程序对基于微信小程序的农产品交易平台进行管理已势在必行;该系统将能更好地理解用户需求,优化基于微信小程序的农产品交易平台策略,提高基于微信小程序的农产品交易平台效率和质量。本文讲述了基…...
Spring Boot 注解
Spring Boot 是基于 Spring 框架的开发框架,提供了许多注解来简化配置和开发。以下是一些常见的 Spring Boot 注解,包括它们的作用和简单介绍: 1. SpringBootApplication 作用:标识一个 Spring Boot 应用的入口点。它是一个组合…...
厦门 做网站/百度关键词优化和百度推广
其实这个APP内存优化也就是性能上的优化,这么说可能不太严谨哈,但是我认为在编码阶段应当尽量避免出现内存上的问题,在开发测试阶段避开这些问题的出现, 以免为客户带来无法挽回的损失 内存简介 RAM(random access me…...
tp做网站/seo整站优化费用
一,自定义String #include <iostream> #include <string.h>using namespace std;class String{ private:char *m_data; public:String(); //默认构造函数String(const char *); //使用C格式的字符串初始…...
网站怎么制作成软件/安徽搜索引擎优化seo
作者:蒋乐兴 阅读原文一.简介 通过sysbench的oltp_read_write测试来模拟业务压力、以此来给指定的硬件环境配置一份比较合理的MySQL配置文件。二.环境介绍 1.硬件配置2.软件环境三.优化层级与指导思想1.优化层级MySQL数据库优化可以在多个不同的层级进行,…...
域名服务器ip查询网站/谷歌网站推广优化
http://blog.csdn.net/xingxing_yan/article/details/54730068 转载 http://www.cnblogs.com/jiayongji/p/5560806.html 一. 概述 用过华为手机的人应该知道华为手机系统应用中的加载动画是一个小球绕着圆圈旋转,之前有一个项目用过类似的功能,所以写了一…...
创建wordpress插件/百度实名认证
检测技术基本知识——电桥电桥直流电桥单臂电桥电桥的平衡条件电压灵敏度非线性误差差动半桥差动全桥惠斯通电桥的应用杨氏模量的测定拉伸法测杨氏模量[1]惠斯通电桥法测杨氏模量[2]被测信息的采集由传感器完成,一般需要将被测信息转换成电信号你,即把被…...
dedecms网站搬家后登陆后台跳转后一片空白是怎么回事/互联网推广有哪些方式
希尔排序图解: 希尔排序是简单插入排序改进后的一个高效版本。 以下版本是采用普通的交换法,效率比较低;10000000个元素排序需要的时间大概:13698ms。 import java.util.Arrays;public class InsertSort {public static void mai…...