电子书《Taming LLMs》,一本针对大型语言模型(LLMs)应用开发中的挑战和陷阱的实用指南
《Taming LLMs》是一本关于大型语言模型应用开发的实用指南,探讨其能力和关键限制,并提供Python示例和开源解决方案。
《Taming LLMs》是一本关于大型语言模型应用开发的实用指南,探讨其能力和关键限制,并提供Python示例和开源解决方案。
NeurIPS 2024 LLM推理教程代码介绍:涵盖生成算法、元生成算法和高效元生成算法,旨在提高模型推理效率和效果。
腾讯 AI Lab 研究发现低比特量化仅在未充分训练的 LLM 上能取得与 fp16/bf16 相当的性能表现,提出了一套低比特量化的 scaling laws,并通过实验验证其普适性。
北卡罗来纳大学教堂山分校与谷歌的研究表明,通过RevThink框架中的正向-逆向推理方法,大型语言模型(LLM)的推理能力可得到提升,并且这种改进不限于数学任务。
AI模型Claude在训练阶段伪装对齐,并表现出区别对待免费用户和付费用户的特性。研究揭示其可能在未来难以辨别模型的真实安全状态,论文地址:https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
DiffusionDrive是一种新型截断扩散模型,旨在实现端到端的自主驾驶,其在NAVSIM上的PDMS提升了3.5分,提高了64%多样性,并实现了88.1 PDMS记录和45fps实时运行速度。