机器之心
斯坦福吴佳俊扩散自蒸馏来了!突破文生图身份保留挑战
斯坦福大学的研究提出了一种名为扩散自蒸馏(Diffusion Self-Distillation)的方法,该方法通过简单扩展普通扩散 transformer 模型为图像条件扩散模型来实现主体适应性和概念一致性。实验表明,其在概念保留和提示跟随方面都取得了最佳的整体性能。
12%计算量就能媲美原模型,Adobe、罗切斯特大学等提出YOPO剪枝技术
近日,Adobe联合罗切斯特大学提出YOPO剪枝方案,有效减少了主流多模态大模型的计算开销,仅保留12%的计算量即可获得与原始模型同等的性能。
LLM破局泛化诊断难题,MSSP刊登北航PHM实验室健康管理大模型交叉研究
北航团队提出基于大语言模型的轴承故障诊断框架,有效解决了跨工况、小样本和跨对象等泛化诊断难题。该框架通过文本化处理振动数据并微调预训练模型提升了精准度与泛化性能。
刚刚,Ilya的Seq2Seq、Ian的GAN获NeurIPS时间检验奖
NeurIPS 2024年度时间检验奖颁给了两篇重要论文,一篇是Ian Goodfellow的生成对抗网络(GAN),另一篇是Ilya Sutskever的Seq2Seq。GAN在图像生成领域取得了重大突破,并对机器学习产生了深远影响。