vLLM 2024 年度回顾与 2025 展望:从专业引擎向开放平台迈进
vLLM 在2024年显著增长,GitHub星标数、贡献者数量和下载量均大幅增加,支持了亚马逊Rufus等大型产品。社区建设方面,建立了包含15位全职贡献者的多元化开源生态,并实现了对多种主流模型的支持。
vLLM 在2024年显著增长,GitHub星标数、贡献者数量和下载量均大幅增加,支持了亚马逊Rufus等大型产品。社区建设方面,建立了包含15位全职贡献者的多元化开源生态,并实现了对多种主流模型的支持。
小小vLLM在2024年下半年部署GPU使用时长增长10倍。它在GitHub上的星标数量、贡献者数量、月下载量分别增长了2.3倍、3.8倍和4.5倍,支持多种模型架构及硬件平台。计划实现单GPU运行GPT-4级别模型,并将量化、前缀缓存等功能标配。