跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

稀疏化技术

Sparse Transformers稀疏推理加速器

2025年6月12日8时 作者 NLP工程化

大模型推理加速器Sparse Transformers通过稀疏化技术提升1.6-1.8倍性能,支持LLaMA 3B模型,并实现内存占用减少和生成速度提升。

分类 开源 标签 6.7倍、 CPU/CUDA双平台、 Transformer大模型、 吴恩达、 斯坦福大学、 稀疏化技术 发表评论

大模型长文本所面临的主要问题

2024年12月5日11时 作者 AI探索时代

大模型在处理长文本时面临输入长度限制、计算资源消耗及上下文保持等问题,提出解决方案包括分段处理、滑动窗口、外部记忆机制等方法。

分类 分享 标签 GPT-3、 上下文信息、 分布式训练、 增量生成、 外部记忆机制、 稀疏化技术 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 文档智能代表模型总结:文档解析及多模态文档理解梳理
  • RAG经典案例—上下文检索及细粒度溯源方案:庖丁科技的ChatDOC技术思路及实测
  • 6,Claude Code 用不了,Cursor 也锁国区了。
  • 红杉资本对话DeepMind科学家Pushmeet Kohli,如何用大模型探索算法的“暗知识”
  • 保姆级教程:10招调出神级Kimi K2 Claude Code,把Cursor压在地上打

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×