关注我,记得标星⭐️不迷路哦~
✨ 1: KResearch
Google Gemini驱动的研究助手

KResearch是一个使用Google Gemini API对用户指定主题进行深度研究的web应用程序。主要功能如下:
- 迭代式主题澄清:
通过“专家研究员”角色提出有见地的澄清问题,以细化研究范围和用户意图。 - AI驱动的研究策略:
根据澄清后的主题生成高级研究策略,模拟“专家战略家”。 - 自动化迭代研究:
执行一系列研究步骤(通过Gemini API向Google Search发起查询)来收集信息,并改进决策,以采取新颖且有影响力的行动。 - 精密的AI推理:
在整个过程中融入“专家研究员/分析师”角色,以获得更深刻的问题、强大的策略、分析性的决策制定以及详细的摘要/报告。 - 改进的“学习”提取:
AI专注于提取信息密集、独特的知识,包括特定实体(人物、地点、公司)、指标、数字和日期。 - 可配置的迭代次数:
用户可以指定最大研究迭代次数(1-500)。 - 综合报告生成:
将所有发现综合成详细的Markdown报告,具有: -
高级格式:原生支持表格、用于数学公式的KaTeX,以及用于可视化关系的Mermaid图表(例如,概念图、层次结构)。 -
增强的细节和结构:AI旨在提供深入的内容,遵循用户批准的策略和报告组织最佳实践,并遵守排版指南。报告生成是一个两步流式传输过程:首先是初始草稿,然后是详细说明过程。 -
默认情况下无引文/参考:默认情况下,最终报告侧重于综合叙述,而没有内联引文或“参考文献”部分。 - 两种研究模式:
-
普通模式:使用 gemini-2.5-flash
模型,以获得快速高效的结果。 -
深度模式:使用 gemini-2.5-pro
模型,以获得更高质量和更深入的分析。 - 实时研究日志:
提供AI的想法、行动和发现的实时流。 - 用户友好的界面:
使用React和Tailwind CSS构建的简洁、响应式UI。 - 错误处理与重试逻辑:
针对API调用的强大错误处理,包括针对瞬态问题的重试机制。 - 保持活动状态的Ping:
在长时间操作期间向用户提供反馈。 - 检查点系统:
允许用户在关键阶段(澄清后、策略批准后)保存和加载研究进度,这对于中断后恢复很有用。
地址:https://github.com/KuekHaoYang/KResearch
✨ 2: ai-fleet
AI Fleet:终端AI开发者助手,轻松管理AI Agent集群

- AI 代理集群管理:
ai-fleet
允许用户从终端启动和管理多个 AI 开发者代理,用于执行代码相关的任务。 - 项目级配置:
通过项目内的 .aifleet/config.toml
文件进行配置,确保团队协作和项目隔离。 - 单代理管理:
创建带有自定义提示词的独立代理,每个代理在隔离的 git 工作区中运行,支持 tmux 会话管理和实时 CPU/内存监控。 - 并行代理编排:
- Fanout:
使用相同的提示词启动 N 个代理。 - Multi:
启动多个具有不同任务的代理。 -
支持批量管理和清理,以及基于模式的操作(支持 glob)。 - 项目集成:
自动复制凭据文件,为每个项目定义自定义设置命令,通过 Git 工作区隔离,以及分支命名约定。 - 监控与控制:
实时代理状态显示 CPU/RAM 使用情况,日志跟踪和会话连接,交互式提示发送,以及批量操作。 - 核心命令:
fleet create <branch> [--prompt PROMPT]
:在特定分支上创建新代理。 fleet list [--grouped]
:列出所有正在运行的代理及其状态。 fleet prompt <branch> "<message>"
:向正在运行的代理发送附加指令。 fleet attach <branch>
:以交互方式连接到代理的 tmux 会话。 fleet logs <branch> [-n LINES]
:查看代理的输出日志。 fleet kill <pattern>
:终止与模式匹配的代理。 fleet fanout <count> [prefix] --prompt PROMPT
:创建多个具有相同提示词的代理。 fleet multi <branch:prompt> [branch:prompt ...]
:创建多个具有不同提示词的代理。 - 配置命令:
fleet init [--type TYPE] [--migrate-legacy]
:在当前项目中初始化 AI Fleet。 fleet config [--edit] [--validate] [--show-origin]
:管理 AI Fleet 配置。 fleet update [--check] [--force]
:检查并安装 AI Fleet 的更新。 - 灵活的配置:
可以为 Rails、Node.js 和 Python 项目设置特定的凭据文件和命令。
地址:https://github.com/nachoal/ai-fleet
✨ 3: Customer Service Agents Demo
基于 OpenAI Agents SDK 的客户服务代理演示

该项目是一个客户服务代理演示,基于 OpenAI Agents SDK 构建,包含一个 Python 后端和一个 Next.js UI。后端负责代理编排逻辑,实现客户服务示例;UI 则用于可视化代理编排过程并提供聊天界面。该项目的核心功能包括:根据用户意图将请求路由到合适的专家代理,确保用户获得准确且有用的响应;执行安全防护措施,保证对话内容聚焦于航空旅行相关主题,并防止绕过系统指令的企图;通过模块化的结构,方便用户扩展或修改编排逻辑,以适应其特定的客户服务工作流程或探索新的应用场景。简而言之,该项目演示了一个智能、安全且可定制的客户服务代理系统。
地址:https://github.com/openai/openai-cs-agents-demo
✨ 4: qagent
搜索优先的问答代理:RAG的替代方案

该项目旨在展示一个更简单、更实用的方法来构建领域特定问答代理,以替代传统的检索增强生成(RAG)系统。核心思想是利用现代搜索API结合大上下文窗口,在许多文档问答场景中取代复杂的RAG流程。
以下是该项目的主要功能、核心要点和关键特性:
- 智能工具选择
: 根据查询需求自动选择快速搜索或全面抓取。 - 领域限制搜索
: 仅搜索批准的组织文档网站,实现AI安全。 - 网页抓取后备方案
: 当搜索结果不足时,全面抓取页面内容。 - 智能总结
: 可选的AI驱动结果总结,减少60-80%的token使用量。 - 成本竞争力
: 每次查询的成本为$0.005-$0.075,通常比传统的RAG系统更便宜。 - 性能优化
: 快速搜索处理90%的查询,仅在需要时进行深度抓取。 - 数据安全
: 无敏感数据发送到向量数据库或训练系统。 - 透明的来源
: 每个答案都包含来自官方文档的清晰来源归属。 - 易于配置
: 简单的CSV文件控制可以访问哪些知识来源。 - 对话记忆
: 在会话中的多个问题之间保持上下文。 - 生产就绪
: 具有适当的错误处理和日志记录的FastAPI后端。
地址:https://github.com/javiramos1/qagent
✨ 5: use-mcp
use-mcp:连接MCP服务器的React Hook

提供了一个名为 use-mcp
的轻量级React Hook,旨在简化与实现了Model Context Protocol (MCP)标准的AI系统的连接。它主要解决了在使用React开发AI应用时,与MCP服务器进行身份验证和工具调用的复杂性。
地址:https://github.com/modelcontextprotocol/use-mcp
(文:每日AI新工具)