LLM进入「拖拽时代」!只靠Prompt,几秒定制一个大模型,效率飙升12000倍
新加坡国立大学和得克萨斯大学奥斯汀分校的研究人员提出了一种名为Drag-and-Drop LLMs的新颖技术,它能够基于提示词快速生成任务专用的LoRA权重,大幅提高了大语言模型的效率,并且在零样本学习中展现出出色的泛化能力。
新加坡国立大学和得克萨斯大学奥斯汀分校的研究人员提出了一种名为Drag-and-Drop LLMs的新颖技术,它能够基于提示词快速生成任务专用的LoRA权重,大幅提高了大语言模型的效率,并且在零样本学习中展现出出色的泛化能力。
智源研究院联合多所高校发布三款向量模型,包括BGE-Code-v1、BGE-VL-v1.5和BGE-VL-Screenshot。这些模型在代码及多模态检索中表现出色,并登顶多项测试基准。BGE-Code-v1针对代码检索优化,提升跨语言信息获取能力;BGE-VL-v1.5则增强通用多模态理解与检索性能;BGE-VL-Screenshot专为视觉化文档任务设计。智源研究院将持续深耕向量模型和检索技术,推动相关领域发展。
OpenAI元老级成员Alec Radford宣布离职,他被认为是GPT-1、GPT-2等模型的主要作者之一。Radford的离开引起业界广泛关注,认为这可能影响OpenAI的发展方向。
牛津大学提出Kinetix框架,训练通用RL智能体在2D物理环境中执行多样化任务,涵盖机器人任务、经典RL环境等。通过Jax2D硬件加速引擎模拟数十亿次交互生成多样任务。研究发现微调使通用智能体能显著减少特定任务学习所需样本数,并带来新能力。