高效计算
大模型轻量化系列解读 (七)|厦门大学纪荣嵘团队提出AffineQuant:LLM 的仿射变换量化
eQuant的后训练量化(PTQ)方法,通过引入等价的仿射变换扩展了优化范围,显著降低了量化误差,尤
仅128个token达到ImageNet生成SOTA性能!MAETok:有效的扩散模型的关键是什么?
ETok在仅使用128个token的情况下,于256×256和512×512分辨率的ImageNet
eQuant的后训练量化(PTQ)方法,通过引入等价的仿射变换扩展了优化范围,显著降低了量化误差,尤
ETok在仅使用128个token的情况下,于256×256和512×512分辨率的ImageNet