跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

能耗

微软研究院发布了个原生 1-bit 的大语言模型:bitnet-b1.58-2B-4T

上午8时 2025/04/17 作者 NLP工程化

微软发布原生1-bit大语言模型bitnet-b1.58-2B-4T,其在内存占用和CPU推理延迟上大幅降低,并且性能接近全精度模型。

分类 开源 标签 bitnet-b1.58-2B-4T、 低精度神经网络、 原生1-bit大语言模型、 微软研究院、 能耗、 轻量级AI应用 发表评论

真相!和ChatGPT聊一年的天,还不如你洗5次澡耗电!

上午8时 2025/03/31 作者 AGI Hunt

AI 耗电多
特别是流传一个说法「
ChatGPT一次对话就要消耗3瓦时电量,是谷歌搜索的10倍
」

分类 分享 标签 ChatGPT、 家庭用电、 日常行为、 模型训练、 碳排放、 能耗 发表评论

大模型技术的重点与难点,以及在实际操作中需要注意的事项

上午11时 2024/12/02 作者 AI探索时代

大模型重点在于规模与性能提升、训练方法优化及应用部署,难点包括资源消耗、数据挑战、推理效率、安全与公平等问题。

分类 分享 标签 GPT-4、 PaLM、 多模态、 提示工程、 能耗、 零样本学习 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 盲测击败了ElevenLabs的一款TTS:Chatterbox
  • K8S集群化部署RAGFlow文档
  • DeepSeek 发布DeepSeek R1-0528
  • DeepSeek再次升级!R1-0528:站上世界第二,智力全面超越xAI与Meta!
  • WebDancer:迈向自主信息寻求的智能体

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 4 月    

归档

  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×