Llama模仿Diffusion多模态涨分30%!不卷数据不烧卡,只需共享注意力分布

中国研究员联合DeepMind团队提出的新研究《Lavender: Diffusion Instruction Tuning》,通过“注意力对齐”让Stable Diffusion教Llama-3.2等模型“看图说话”,性能提升30%,且代码、模型、训练数据将全部开源。