🧨 Diffusers 提供最先进的预训练扩散模型支持多模态任务。 其目标是成为推理和训练通用的模块化工具箱。
我们致力于构建一个经得起时间考验的库,因此对API设计极为重视。
简而言之,Diffusers 被设计为 PyTorch 的自然延伸。因此,我们的多数设计决策都基于 PyTorch 设计原则。以下是核心原则:
accelerate、safetensors、onnx等)。我们竭力保持库的轻量级特性,使其能轻松作为其他包的依赖项。正如PyTorch所言:显式优于隐式,简洁优于复杂。这一哲学体现在库的多个方面:
DiffusionPipeline.to让用户自主管理设备。库的大部分沿用了Transformers库的重要设计原则:宁要重复代码,勿要仓促抽象。这一原则与DRY原则形成鲜明对比。
简言之,正如Transformers对建模文件的做法,Diffusers对流程(pipeline)和调度器(scheduler)保持极低抽象度与高度自包含代码。函数、长代码块甚至类可能在多文件中重复,初看像是糟糕的松散设计。但该设计已被Transformers证明极其成功,对社区驱动的开源机器学习库意义重大:
Hugging Face称此设计为单文件政策——即某个类的几乎所有代码都应写在单一自包含文件中。更多哲学探讨可参阅此博文。
Diffusers对流程和调度器完全遵循该哲学,但对diffusion模型仅部分适用。原因在于多数扩散流程(如DDPM、Stable Diffusion、unCLIP (DALL·E 2)和Imagen)都基于相同扩散模型——UNet。
现在您应已理解🧨 Diffusers的设计理念🤗。我们力求在全库贯彻这些原则,但仍存在少数例外或欠佳设计。如有反馈,我们❤️欢迎在GitHub提交。
现在深入探讨设计细节。Diffusers主要包含三类:流程(pipeline)、模型和调度器(scheduler)。以下是各类的具体设计决策。
流程设计追求易用性(因此不完全遵循简洁优于简易),不要求功能完备,应视为使用模型和调度器进行推理的示例。
遵循原则:
src/diffusers/pipelines/stable-diffusion可包含多个流程文件。若流程功能相似,可使用# Copied from机制。DiffusionPipeline。model_index.json文件,可通过同名属性访问,并可用DiffusionPipeline.components在流程间共享。DiffusionPipeline.from_pretrained加载。__call__方法运行,且参数命名应跨流程统一。模型设计为可配置的工具箱,是PyTorch Module类的自然延伸,仅部分遵循单文件政策。
遵循原则:
UNet2DConditionModel类适用于所有需要2D图像输入且受上下文调节的UNet变体。src/diffusers/models,每种架构应有独立文件,如unets/unet_2d_condition.py、transformers/transformer_2d.py等。attention.py、resnet.py、embeddings.py等。注意:这与Transformers的建模文件截然不同,表明模型未完全遵循单文件政策。Module类),并提供明确错误提示。ModelMixin和ConfigMixin。string类型参数而非布尔型is_..._type参数。对现有架构的修改应保持最小化。调度器负责引导推理去噪过程及定义训练噪声计划。它们设计为独立的可加载配置类,严格遵循单文件政策。
遵循原则:
src/diffusers/schedulers。# Copied from机制。SchedulerMixin和ConfigMixin。ConfigMixin.from_config轻松切换(详见此处)。set_num_inference_steps和step函数。在每次去噪过程前(即调用step(...)前)必须调用set_num_inference_steps(...)。timesteps属性暴露需要”循环”的时间步,这是模型将被调用的时间步数组。step(...)函数接收模型预测输出和”当前”样本(x_t),返回”前一个”略去噪的样本(x_t-1)。step函数不暴露全部细节,可视为”黑盒”。