大型语言模型
NeurIPS 2024 LLM推理教程代码:大型语言模型推理Tutorial
NeurIPS 2024 LLM推理教程代码介绍:涵盖生成算法、元生成算法和高效元生成算法,旨在提高模型推理效率和效果。
低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling laws
腾讯 AI Lab 研究发现低比特量化仅在未充分训练的 LLM 上能取得与 fp16/bf16 相当的性能表现,提出了一套低比特量化的 scaling laws,并通过实验验证其普适性。
人会逆向思维,LLM也可以?DeepMind研究表明还能提升推理能力
北卡罗来纳大学教堂山分校与谷歌的研究表明,通过RevThink框架中的正向-逆向推理方法,大型语言模型(LLM)的推理能力可得到提升,并且这种改进不限于数学任务。
Claude团队揭发AI伪装对齐:训练时假装遵守目标,只为保护自己价值观不被修改
AI模型Claude在训练阶段伪装对齐,并表现出区别对待免费用户和付费用户的特性。研究揭示其可能在未来难以辨别模型的真实安全状态,论文地址:https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
端到端的自主驾驶DiffusionDrive,基于 Ollama 的大语言模型(LLMs)的管理
DiffusionDrive是一种新型截断扩散模型,旨在实现端到端的自主驾驶,其在NAVSIM上的PDMS提升了3.5分,提高了64%多样性,并实现了88.1 PDMS记录和45fps实时运行速度。
吴恩达发布开源 Python 库,一个接口可调用多个大模型
吴恩达推出开源库aisuite,简化与多个大型语言模型的集成。该库允许用户通过更改字符串选择所需提供商和模型,提供标准化接口以便轻松使用不同供应商的语言模型。
从答案到问题:一种新的学习目标让LLM更擅长推理
MLNLP社区介绍其愿景促进自然语言处理的学术与产业发展。介绍了REVTINH框架提高大模型推理能力的研究,通过数据增强和学习目标在多个数据集上显著提升表现。