llm-d:Kubernetes原生高性能分布式LLM推理框架,助力大规模语言模型推理部署

llm-d:Kubernetes原生高性能分布式LLM推理框架,助力大规模语言模型推理部署。亮点:1. 采用vLLM优化的推理调度器,提升性能;2. 支持解耦式服务,灵活部署;3. 提供独立和共享两种KV缓存方案,优化资源利用。

参考文献:
[1] https://github.com/llm-d/llm-d
[2] https://llm-d.ai/



知识星球服务内容:Dify源码剖析及答疑,Dify对话系统源码,NLP电子书籍报告下载,公众号所有付费资料。加微信buxingtianxia21进NLP工程化资料群

(文:NLP工程化)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往