跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

缓存机制

SGLang 源码学习笔记:Cache、Req与Scheduler

2025年5月14日19时 作者 GiantPandaCV

41
前言
笔者一直想找个开源的推理引擎框架学习一下源代码,机缘巧合认识了 sglang 社区的朋友

分类 学术 标签 CacheUnfinishedReq、 MatchPrefix、 ReqToTokenPool、 SGLang、 TokenToKVPool、 缓存机制 发表评论

《超大规模操作手册:在 GPU 集群上训练 》Part1(基础概念,DP,TP)

2025年2月22日14时 作者 GiantPandaCV

cale-playbook
作者:nanotron
校正:pprp
我们在最多 512 个 GPU

分类 学术 标签 内存消耗、 吞吐量、 大规模语言模型、 张量并行、 梯度同步、 缓存机制 发表评论

被玩疯的小红书 AI 翻译,用了哪家大模型?

2025年1月20日23时 作者 特工宇宙

小红书在五天内全量更新了笔记和评论的多语言翻译功能。此功能利用大语言模型技术,处理文字的歧义和缩写等情况时更加精准,并且有时会出现意料之外的结果。

分类 分享 标签 AI翻译、 GPT4、 大语言模型、 技术创新、 缓存机制、 蔡徐坤 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub Google GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • CSEAC 2025,九月与您相约无锡
  • OpenAI 工程师最新演讲:代码只占程序员核心价值的 10%,未来属于“结构化沟通”
  • 风云再起!英伟达H20芯片解禁,老黄“杀回”中国市场
  • 为大模型思考装上“猎鹰重装引擎” :腾讯混元 SEAT 重塑深度思考
  • 华南理工开源小智AI硬件后端服务,支持MCP。

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×