机器学习算法与自然语言处理
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
MLNLP社区是国内外知名的人工智能社区,致力于促进自然语言处理领域学术界、产业界及爱好者的交流合作。陈丹琦团队提出了元数据调节然后冷却(MeCo)方法,显著提升了大模型预训练的效率和效果。
Sam Altman 剧透2025年OpenAI的大计划
MLNLP社区是一个国内外知名的机器学习与自然语言处理社区,致力于促进学术界、产业界和爱好者的交流合作。OpenAI发布了2025年的目标,包括AGI能力升级等。小鹿期待见证OpenAI十年答卷的终章。
Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE
MLNLP 社区致力于促进 NLP 学术界、产业界及爱好者间的交流合作,Meta 新研究展示了记忆层在预训练语言模型扩展中的实用性和性能提升。
读完这这本大模型书籍,你就是LLM大师!
《动手学大语言模型》一书为读者提供了一本全面且实用的指南,涵盖LLMs在分类任务、文本生成等场景的实际应用。该书还讨论了训练和微调文本嵌入模型的方法,并介绍了大模型如何应用于医疗、教育等领域。