4 种方法在本地部署蒸馏版的DeepSeek-R1

本文介绍了四种让DeepSeek-R1等本地运行大型语言模型(LLM)的方法:Ollama、LM Studio、vLLM和LlamaCPP。Ollama简单易用;LM Studio提供图形化界面方便切换模型;vLLM追求高性能且兼容OpenAI API;LlamaCPP跨平台且高效,适合用户自定义设置。无论哪种方式,都能让用户拥有强大的本地LLM助手。

化解机器人的「幻觉」:北大发布OmniManip,VLM结合双闭环系统,3D理解能力大幅提升

北大师生团队提出OmniManip架构,通过双闭环系统实现VLM到机器人的泛化操作。关键设计包括基于物体的交互基元、循环规划和执行,显著提升性能,适用于多种真实任务。