设计哲学

🧨 Diffusers 提供最先进的预训练扩散模型支持多模态任务。 其目标是成为推理和训练通用的模块化工具箱

我们致力于构建一个经得起时间考验的库,因此对API设计极为重视。

简而言之,Diffusers 被设计为 PyTorch 的自然延伸。因此,我们的多数设计决策都基于 PyTorch 设计原则。以下是核心原则:

可用性优先于性能

简洁优于简易

正如PyTorch所言:显式优于隐式简洁优于复杂。这一哲学体现在库的多个方面:

可定制与贡献友好优于抽象

库的大部分沿用了Transformers库的重要设计原则:宁要重复代码,勿要仓促抽象。这一原则与DRY原则形成鲜明对比。

简言之,正如Transformers对建模文件的做法,Diffusers对流程(pipeline)和调度器(scheduler)保持极低抽象度与高度自包含代码。函数、长代码块甚至类可能在多文件中重复,初看像是糟糕的松散设计。但该设计已被Transformers证明极其成功,对社区驱动的开源机器学习库意义重大:

Hugging Face称此设计为单文件政策——即某个类的几乎所有代码都应写在单一自包含文件中。更多哲学探讨可参阅此博文

Diffusers对流程和调度器完全遵循该哲学,但对diffusion模型仅部分适用。原因在于多数扩散流程(如DDPMStable DiffusionunCLIP (DALL·E 2)Imagen)都基于相同扩散模型——UNet

现在您应已理解🧨 Diffusers的设计理念🤗。我们力求在全库贯彻这些原则,但仍存在少数例外或欠佳设计。如有反馈,我们❤️欢迎在GitHub提交

设计哲学细节

现在深入探讨设计细节。Diffusers主要包含三类:流程(pipeline)模型调度器(scheduler)。以下是各类的具体设计决策。

流程(Pipelines)

流程设计追求易用性(因此不完全遵循简洁优于简易),不要求功能完备,应视为使用模型调度器进行推理的示例。

遵循原则:

模型

模型设计为可配置的工具箱,是PyTorch Module类的自然延伸,仅部分遵循单文件政策

遵循原则:

调度器(Schedulers)

调度器负责引导推理去噪过程及定义训练噪声计划。它们设计为独立的可加载配置类,严格遵循单文件政策

遵循原则:

< > Update on GitHub