llama.cpp
爆!三大热门大型模型服务方案实测:VLLM、LLaMA.cpp、SGLang 谁才是你的最强生产力引擎?
文章介绍了三种当前流行的大型语言模型(LLM)和服务方案:VLLM、LLaMA.cpp HTTP Server 和 SGLang。VLLM 以其高性能和快速响应著称;LLaMA.cpp 是一个轻量级的本地部署选项,适合没有高端 GPU 的用户;SGLang 则是一个智能框架,支持多步骤推理和函数调用,适合需要自定义 DSL 的场景。文章详细比较了每种方案的特点、优点及适用场景,并提醒了各自可能遇到的问题。
使用Huggingface SmolVLM 和gglm llama.cpp 的实时摄像头AI识别演示
实时摄像头AI识别演示使用Huggingface SmolVLM和gglm llama.cpp,参考文献详述。
本地部署 DeepSeek-R1 支持 ToolCall 了
DeepSeek-R1 支持 ToolCall 功能完成本地部署,支持多个Agent和ToolCall的工作流,建议使用 OpenWebUI+llama.cpp 运行。相关 PR 已合并。
LM Studio自带CUDA llama.cpp (Windows) 支持DeepSeek R1
LM Studio支持CUDA llama.cpp (Windows)与DeepSeek R1的结合,欢迎关注知识星球获取更多资源。