Unsloth官方发布本地微调大模型指南 下午11时 2025/03/15 作者 PyTorch研习社 对LLM进行微调可以定制其行为、增强知识并优化特定任务表现。通过在专业数据集上微调预训练模型(如Llama-3.1-8B),更新领域知识,调整语气和个性化回复,提高准确性和相关性。
首个大模型后训练方法综述 上午8时 2025/03/14 作者 NLP工程化 国内外研究者综述了LLM的后训练方法进展及五种范式(微调、对齐、推理、效率和集成适应),并介绍了相关数据集与应用场景,同时讨论了当前面临的伦理问题及未来方向。
长文本有了专属困惑度!北大、MIT、阿里推出LongPPL新指标 下午11时 2025/03/09 作者 机器之心 。 传统上,困惑度(Perplexity, PPL)被视为衡量模型语言理解与生成质量的标准指标——困
重磅!NeoBERT横空出世:2.1万亿token训练,开源碾压传统编码器 下午11时 2025/03/04 作者 AGI Hunt ude、Grok、DeepSeek 这些对话式 AI 迷得神魂颠倒时,却很少有人意识到,这些模型仅仅
DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码 下午12时 2025/03/02 作者 机器之心 ive Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们
零基础入门:DeepSeek微调的评测教程来了! 下午7时 2025/02/28 作者 Datawhale 望通过比较通俗的方式给大家直观感受大模型微调后的效果,相关是思路想法旨在起到抛砖引玉的效果,如果学习
DeepSeek-R1超高幻觉率解析:为何大模型总“胡说八道”? 下午12时 2025/02/13 作者 硅星人Pro 出色,但“幻觉”问题依然是它面临的一大挑战。 在Vectara HHEM人工智能幻觉测试(行业权威测
揭秘!如何微调 DeepSeek-R1 推理模型,提升 AI 性能到极致 下午2时 2025/02/11 作者 AI技术研习社 据的主导地位。 最令人兴奋的是,这些革命性的模型完全免费使用,没有任何限制,任何人都可以随时访问并利
一篇最新大模型GraphRAG技术系统性综述 下午7时 2025/01/31 作者 PaperAgent GraphRAG 通过图结构化的知识表示、高效的图检索和结构感知的知识整合,解决了传统RAG的局限性