跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

稀疏化技术

Sparse Transformers稀疏推理加速器

2025年6月12日8时 作者 NLP工程化

大模型推理加速器Sparse Transformers通过稀疏化技术提升1.6-1.8倍性能,支持LLaMA 3B模型,并实现内存占用减少和生成速度提升。

分类 开源 标签 6.7倍、 CPU/CUDA双平台、 Transformer大模型、 吴恩达、 斯坦福大学、 稀疏化技术 发表评论

大模型长文本所面临的主要问题

2024年12月5日11时 作者 AI探索时代

大模型在处理长文本时面临输入长度限制、计算资源消耗及上下文保持等问题,提出解决方案包括分段处理、滑动窗口、外部记忆机制等方法。

分类 分享 标签 GPT-3、 上下文信息、 分布式训练、 增量生成、 外部记忆机制、 稀疏化技术 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 优必选Walker S2全球首个实现自主换电,7*24小时打工的机器人要来了
  • ASIC安全芯片量产在即,产研团队部分工作已由AI完成
  • Nvidia携H20重返中国!黄仁勋:禁令建立在错误假设上
  • 再不管AI就要失控?!美国一众AI大厂和大佬联名发文:是时候监控人工智能的“思想”了
  • 硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×