小模型大智慧-阿里巴巴开源推理模型:QwQ-32B性能媲美DeepSeek-R1,AI Agent的生产级工具集Composio

关注我,记得标星⭐️不迷路哦~


✨ 1: QwQ-32B

QwQ-32B是Qwen系列推理模型,具有325亿参数,擅长解决难题,推荐使用特定参数以标准化输出格式。

QwQ-32B是Qwen系列的一个推理模型,参数量为325亿。相较于传统的指令微调模型,QwQ-32B具备更强的推理能力,尤其在解决难题时表现更佳,可以与DeepSeek-R1, o1-mini等先进推理模型相媲美。它基于Qwen2.5,使用了RoPE, SwiGLU, RMSNorm, 和 Attention QKV bias等技术。模型上下文长度为131,072 tokens。 对于长输入,可以使用YaRN技术优化。 该模型支持vLLM部署。

地址:https://huggingface.co/Qwen/QwQ-32B

✨ 2: OpenChat

OpenChat是一个AI驱动的全栈聊天应用,支持Web、移动和桌面端,采用现代技术栈构建。

OpenChat 是一个现代化的 AI 聊天应用,它使用 React 和多后端架构(Cloudflare Workers/Node.js/Golang)构建,并提供 Web、移动 App 和桌面端全平台客户端。

地址:https://github.com/akazwz/openchat-monorepo

✨ 3: Archon

Archon是AI Agent构建器,能自主构建、优化AI智能体,并提供Streamlit用户界面进行管理。

Archon 是一个 AI Agent 构建器,它本身也是一个 AI Agent,被称为 “Agenteer”。它的核心功能是能够自主地构建、优化和改进其他的 AI Agent。Archon 通过迭代开发,展示了规划、反馈循环和领域知识在创建强大 AI Agent 方面的能力。

地址:https://github.com/coleam00/Archon

✨ 4: Firecrawl MCP Server

Firecrawl MCP Server是一个集成了Firecrawl网络爬取能力的模型上下文协议(MCP)服务端实现。

Firecrawl MCP Server 是一个模型上下文协议 (Model Context Protocol) 服务器的实现,它与 Firecrawl 集成,提供强大的网页抓取功能。该服务器支持抓取、爬取、搜索、提取、深度研究和批量抓取等多种功能,包括JS渲染、URL发现、自动重试、速率限制、信用监控、日志记录以及云服务和自托管实例的支持等。 开发者可以通过配置选项,例如重试次数、延迟和信用阈值,来优化服务器行为。

地址:https://github.com/mendableai/firecrawl-mcp-server

✨ 5: Composio

Composio是AI Agent的生产级工具集,提供超250种工具和多种框架支持,提升工具调用准确率。

Composio是一个为AI Agent提供的生产级工具集,旨在简化和加速AI Agent的开发和部署。

Composio的核心功能:

  • 丰富的工具支持:
     提供超过250种不同类别的工具,包括软件工具(如GitHub, Notion, Slack),操作系统工具(如文件工具,Shell工具)和搜索引擎工具(如Google, Perplexity)。
  • 全面的框架支持:
     兼容多种AI框架,如OpenAI, Groq, Langchain, LlamaIndex等,方便开发者集成。
  • 托管认证:
     支持多种认证协议(OAuth, API Keys, Basic JWT),简化了身份验证流程。
  • 提高工具调用准确率:
     通过优化的设计,Composio能够提高工具调用的准确率高达40%。
  • 白标解决方案:
     提供后端集成白标方案。
  • 可插拔架构:
     支持自定义工具和扩展,方便开发者根据需求进行定制。

地址:https://github.com/composiohq/composio

(文:每日AI新工具)

欢迎分享

发表评论