NeurIPS’24|VL-SAM:北大出品,完全无训练的开放式检测分割模型

北大团队提出VL-SAM,结合视觉-语言模型和Segment-Anything模型,通过注意力图作为提示解决开放式物体检测与分割任务,性能在LVIS和CODA数据集上良好。