10倍吞吐提升无损性能:多模态适用的KV cache量化策略来了,即插即用无需改原模型 上午11时 2025/04/03 作者 量子位 CalibQuant团队在InternVL-2.5模型上提出了一种1比特量化方法,通过校准策略缓解了低比特数量化带来的失真问题。实验结果显示,在多种任务和内存限制下,该方法相比基线有显著的性能提升。
从视觉问答到多语言翻译:InternVL的多模态“全能”应用图鉴 下午2时 2025/04/02 作者 小兵的AI视界 到文本,多模态模型正逐渐成为连接人类感知与机器理解的桥梁。今天, 我们将深入探讨一个备受瞩目的开源多