视觉语言模型
告别OCR!无需OCR的开源文档提取神器:DocExt,VLM驱动,安全高效!
Docext 是一个基于视觉语言模型的文档结构化信息提取工具,支持发票、护照等敏感文档处理。它通过本地部署确保数据隐私,并提供自定义字段和表格提取功能,适用于多种场景如发票管理、证件录入等。
英伟达开源「描述一切」模型,拿下7个基准SOTA
研究提出「描述一切模型」(DAM),能生成图像或视频中特定区域的详细描述。用户可通过点、框等方式指定区域,DAM则提供丰富的上下文描述。此模型在多个任务中均表现优异,并支持多粒度输出。
物理视频真实生成!大连理工&莫纳什大学团队提出物理合理的视频生成框架
近日,大连理工大学与莫纳什大学的研究团队提出VLIPP框架,通过引入物理规律提升视频生成的物理真实性。论文指出视频扩散模型在物理场景下表现不佳的原因,并提出两阶段方法,利用视觉语言模型预测运动路径,再用细粒度的视频扩散模型生成符合物理规则的视频。
阿里千问携手DeepSeek引领国产开源大模型走向世界
阿里千问开源Qwen2.5-VL-32B-Instruct,提升视觉语言能力与数学推理。相比同类模型,其在多模态任务中表现显著优势,且在同规模纯文本能力上也取得顶级表现。
GPT-4.5刚出来就被攻破了?成功率破90%, MBZUAI团队出品
文章介绍了一篇关于对抗攻击的研究成果,该研究提出了一种新的方法M-Attack来提高对大型视觉语言模型的攻击成功率,并成功应用于多个商业模型中。
生活机器人最后考验!杨笛一团队发布EgoNormia:现实中能否符合社会规范?
新智元报道
编辑:LRST
EgoNormia基准用于评估视觉语言模型在规范推理方面的能力,结果显示当前最先进的模型仍远不如人类。论文提出了三个子任务并分析了1853个视频数据集中的规范决策问题。
清华推出开源具身智能框架:用VLM解决机器人动作异构一致性难题,性能超越14倍参数对手
清华大学智能产业研究院联合商汤研究院等机构发布首个基于通用动作空间的具身基础模型框架UniAct,解决了具身智能中的动作空间异构一致性难题。通过视觉语言模型实现跨模态泛化,在多项权威评测中超越参数量达14倍的OpenVLA对手。