NeurIPS’24|VL-SAM:北大出品,完全无训练的开放式检测分割模型
北大团队提出VL-SAM,结合视觉-语言模型和Segment-Anything模型,通过注意力图作为提示解决开放式物体检测与分割任务,性能在LVIS和CODA数据集上良好。
北大团队提出VL-SAM,结合视觉-语言模型和Segment-Anything模型,通过注意力图作为提示解决开放式物体检测与分割任务,性能在LVIS和CODA数据集上良好。
MMRel是首个大规模、高质量的物体间关系理解数据集,用于评估和提升多模态大模型能力。包含超过22K问答对,覆盖三个领域与三种关系类型,通过半自动流程生成并提供高难度子集测试极限性能。
近日,哈佛医学院等机构的科学家们开发了一种名为CHIEF的多功能AI癌症诊断模型。该模型能够在多个国际患者群体中验证,并预测患者生存率,识别与患者治疗反应相关的基因和DNA模式。
Datawhale活动
组织方:智东西、智猩猩
12月5-6日,2024中国生成式AI大会(上海站)