老刘说NLP
Claude 3.7、QwQ-Max-Preview等推理大模型发布跟踪:兼看大模型逻辑推理技术总结及几点思考
近日推理大模型相关前沿回顾包括Claude 3.7的发布,Qwen的QwQ模型开源,FlashMLA的开源及PaliGemma 2 Mix模型的开源。文章还总结了大模型逻辑推理技术,并提出了一些值得思考的问题。
大模型开源及RAG用于综述写作进展:兼看mobile agent在应用场景选择上一些思考
今天是2025年02月24日,星期一。文章讨论了mobile agent的思考和开源进展,包括MoE小模型Moonlight-16B-A3B、Qwen2.5-VL及deepseek开源周day1开源FlashMLA等项目。此外还介绍了RAG在写作场景中的应用进展。
再聊误区–Deepseek-R1思考过程在使用中的几个问题及对策
DeepSeek R1 在 think 过程中的需求和问题引起了广泛关注,包括输出思考过程的需求、过长或过短的思考时间以及控制思考方向。文章探讨了这些问题,并提出了通过调整模型设置、修改prompt模板和干预token解码采样的方法来解决。
大模型+知识图谱+RAG+文档智能技术及落地:老刘说NLP技术社区对外纳新
社区关于Deepseek-R1类推理大模型的三部曲线上交流顺利结束。老刘说NLP技术社区分享NLP、大模型&RAG&文档智能&知识图谱四个主题的知识与技术,现已举办39次线上报告活动,并将持续纳新。
如何选择合适的LLM做擅长的事儿?P2L微调大模型进行路由选择的实现思路
2025年02月22日文章介绍了P2L(Prompt-to-Leaderboard)方法,通过训练一个大型语言模型来预测人类偏好投票,并用于评估和选择最适合特定用例的模型。
大模型推理部署的几个基本认知及prompt压缩策略用于COT推理微调尝试
2025年02月21日星期x,介绍了大模型推理压缩策略,包括TokenSkip方法用于Controllable Chain-of-Thought(COT),通过分析和剪枝减少冗余token提高推理效率。相关研究文献推荐加入了LoRA微调技术。