80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍
清华大学NLP实验室提出Delta-CoMe模型增量压缩技术,80G的A100 GPU可加载50个7B模型,节省显存约8倍。该方法结合低秩分解和低比特量化技术,显著提升复杂任务性能并兼顾效率,优于传统微调方法。
清华大学NLP实验室提出Delta-CoMe模型增量压缩技术,80G的A100 GPU可加载50个7B模型,节省显存约8倍。该方法结合低秩分解和低比特量化技术,显著提升复杂任务性能并兼顾效率,优于传统微调方法。
神经学研究专用基准BrainBench显示,经过训练的LLM预测结果准确率为81.4%,远超人类专家的63%。论文提出了一个新基准测试,评估LLM预测神经科学结果的能力,并发现LLMs学习了广泛的科学模式而不是记忆数据。
马斯克为Optimus新灵巧手站台,该手部拥有22个自由度。用户可在远程操控下实现类似居家操作的效果。Optimus副总裁透露其相比上一代在灵活性上有显著提升,并计划在未来几个月内完善更多功能。
大模型独角兽智谱AI公布AutoGLM及GLM-PC两款智能体产品进展。通过文字/语音指令模拟人类操作手机,实现从’言’到’行’的转变,并具备视觉理解和任务规划能力。