何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升
研究者提出一种新的正则化方法Dispersive Loss,旨在改进扩散模型生成图片的效果。该方法不需要定义正样本对,通过鼓励中间表示的分散性来提高模型的泛化能力和生成质量。论文在ImageNet数据集上进行了测试,并展示了其有效性。
研究者提出一种新的正则化方法Dispersive Loss,旨在改进扩散模型生成图片的效果。该方法不需要定义正样本对,通过鼓励中间表示的分散性来提高模型的泛化能力和生成质量。论文在ImageNet数据集上进行了测试,并展示了其有效性。
大神何恺明发布新作《Mean Flows for One-step Generative Modeling》,提出一种名为 MeanFlow 的单步生成建模框架,通过引入平均速度的概念,在 ImageNet 256×256 数据集上取得了显著优于以往单步扩散/流模型的结果,FID 分数达到3.43。
模简单的优点,又可以保持连续 token 的强表示能力。
>>
加入极市CV技术交流群,走在计算机视