无损加速视觉语言模型推理!轻松剪掉视觉冗余Token|腾讯AI Lab 2025年7月4日11时 作者 量子位 模型(LVLM)变得越来越聪明,但也越来越“吃不消”: 视觉Token数量的激增所带来的推理成本暴涨