微软开源2025 ICML获奖框架,终结大模型多轮对话严重缺陷
微软发布的大语言模型框架CoLLabLLM通过多轮对话和奖励优化提升用户体验,核心模块包括上下文理解、响应生成、协作模拟及多轮感知奖励计算。该框架已在文档创作与编辑、代码生成与调试等多个领域进行测试,性能表现显著。
微软发布的大语言模型框架CoLLabLLM通过多轮对话和奖励优化提升用户体验,核心模块包括上下文理解、响应生成、协作模拟及多轮感知奖励计算。该框架已在文档创作与编辑、代码生成与调试等多个领域进行测试,性能表现显著。
Qwen3 Embedding 提供不同规模的文本嵌入和重排序模型;GUI-Actor 项目实现无需坐标的GUI交互方法;MonkeyOCR 使用结构-识别-关系三元组进行文档解析;Gemini for Claude Code 将Google Gemini模型与Claude Code结合使用,并提供API转换和错误处理功能;CircuitManus 是一个通用的高级异步智能体平台,专注于电路设计并支持跨领域扩展。
Granite-3.2-8B-Instruct-Preview 是一款早期发布的 8B 长上下文模型,专为增强推理能力而进行微调,基于 Granite-3.1-8B-Instruct 构建,并使用开放许可开源数据集和合成数据训练。
MiniCPM-o 2.6 是性能最佳的多模态大模型之一,支持视觉、语音和多模态流式能力达到GPT-4级别,并新增了可配置声音功能及情感/语速/风格控制等新特性。
微软在MEDEC研究中意外公布了其部分主要闭源大型语言模型的参数规模,包括Claude 3.5 Sonnet (175B),GPT-4 (~1.76T),Claude 3.5 Claude 3.5 (8B)和o1-preview (~300B)。