Proteus Workflow Engine
A modern, extensible multi-agent workflow engine with real-time monitoring and a web visualization interface.
Proteus AI:多智能体工作流引擎
Proteus AI 是一个强大的、可扩展的、基于 Python 和 FastAPI 构建的多智能体工作流引擎。它旨在提供一个灵活、高效的平台,用于构建和管理复杂的自动化任务和智能代理系统。
🌊 项目名称由来
Proteus(普罗透斯)源自希腊神话中的海神,他以能够随意改变自己的形态而闻名。这个名字完美契合了本项目的核心特性:
- 强大的可变性:引擎通过不同节点类型的组合实现各种复杂的工作流
- 智能适应:Agent 系统能够智能地选择最适合的工具和执行路径
- 灵活性:引擎能够灵活处理各种任务场景和数据流
✨ 核心特性
🧠 强大的多智能体系统
- 高级推理能力:基于 Chain-of-Thought (CoT) 推理,支持复杂的任务分解和决策
- 动态工具调用:智能体能够根据任务需求动态选择并调用内置或外部工具
- 多轮对话与上下文管理:支持多轮对话,保持上下文连贯性,提升交互体验
- 多样化智能体模式:提供超级智能体、自动工作流智能体、MCP 智能体、多智能体协作、深度研究智能体和浏览器智能体等
- 任务交接:支持智能体之间进行任务交接,实现更复杂的协作流程
🔄 灵活的工作流编排
- 可视化工作流构建:直观的 Web 界面支持节点和边的拖拽,轻松构建复杂工作流
- 完整的生命周期管理:支持工作流的创建、启动、暂停、恢复和取消
- 智能调度:处理节点依赖关系,确保数据流和执行顺序正确
- 异步执行与实时监控:基于 SSE (Server-Sent Events) 实现实时通信,监控节点执行状态和结果
- 高级工作流结构:支持循环执行和工作流嵌套,提升复用性和灵活性
🛠️ 丰富的内置节点与可扩展性
内置超过 20 种节点类型,涵盖多种操作,并支持轻松扩展:
| 类别 | 节点类型 | 功能描述 |
|---|---|---|
| 数据与文件 | file_read, file_write | 文件读写操作 |
| 数据库操作 | db_query, db_execute, mysql_node | 数据库查询和执行 |
| 信息检索 | duckduckgo_search, arxiv_search, serper_search | 多种搜索引擎集成 |
| Web 爬虫 | web_crawler, web_crawler_local | 网页内容抓取 |
| 代码与自动化 | python_execute, terminal | Python 代码和终端命令执行 |
| 浏览器自动化 | browser_agent | 浏览器操作自动化 |
| 交互与通信 | api_call, chat, user_input, email_sender | API 调用、聊天、用户输入、邮件发送 |
| 特殊功能 | weather_forecast, mcp_client, team_generator, workflow_generate | 天气预报、MCP 客户端、团队生成、工作流生成 |
📊 实时监控与可视化
- SSE 实时通信:通过 Server-Sent Events 实现前后端实时数据传输
- 节点状态实时更新:Web 界面实时展示节点执行进度、状态和结果
- 智能体思考过程可视化:实时显示智能体思考过程和操作,增强可观察性
- 历史记录管理:支持会话历史的查询、存储、摘要生成和恢复
🔌 MCP (Model Context Protocol) 支持
- 标准化外部工具集成:支持 MCP 标准,动态加载和管理外部工具和资源
- 远程 MCP 服务器集成:通过 MCP 客户端节点与外部服务无缝交互
- LLM 工具理解:标准化的工具描述便于大型语言模型 (LLM) 理解和使用工具
🛡️ 安全沙箱环境
提供独立的沙箱环境,用于安全地执行 Python 代码和终端命令,隔离潜在风险。
🎨 用户友好的界面与工具
- Web 可视化界面:提供直观的 Web 界面进行工作流构建、智能体交互和状态监控
- 命令行工具 (CLI):功能强大的 CLI 工具,方便开发者和用户在终端中直接与 Proteus AI 系统交互
📋 实际效果展示
请查看 examples/ 文件夹中的研究报告示例,展示 Proteus 在复杂信息收集和分析方面的能力:
🚀 快速开始
环境要求
- Python 3.11+
- Docker (可选,用于容器化部署)
- LLM API 密钥 (支持多种 LLM 服务,默认配置为 Deepseek Chat)
- Redis (用于缓存和会话管理)
安装步骤
1. 克隆项目
git clone https://github.com/yourusername/proteus-ai.git
cd proteus-ai
2. 创建并激活虚拟环境
python -m venv venv
source venv/bin/activate # Linux/macOS
venv\Scripts\activate # Windows
3. 安装核心依赖
pip install -r proteus/requirements.txt
4. 配置环境变量
复制 .env.example 到 .env,并根据需要编辑配置文件:
cp proteus/.env.example proteus/.env
编辑 proteus/.env 文件,设置必要的环境变量:
# LLM API 配置
API_KEY=your_llm_api_key_here
MODEL_NAME=deepseek-chat
# Redis 配置
REDIS_HOST=localhost
REDIS_PORT=6379
REDIS_PASSWORD=your_redis_password
# 其他可选配置
SERPER_API_KEY=your_serper_api_key # 用于 Web 搜索
MCP_CONFIG_PATH=./proteus/proteus_mcp_config.json
5. 浏览器自动化依赖 (可选)
如果需要使用浏览器自动化功能(如 browser_agent 或 web_crawler_local 节点),请安装 Playwright:
playwright install
启动服务
本地开发模式
# 确保已安装所有依赖
pip install -r proteus/requirements.txt
playwright install # 如果需要浏览器自动化功能
# 启动服务
cd proteus
python main.py
服务启动后,访问 http://localhost:8000 即可打开 Web 界面。
使用 Docker 部署
# 构建 Docker 镜像(在项目根目录执行)
docker build -t proteus -f proteus/Dockerfile .
# 使用 Docker Compose 启动所有服务
docker-compose -f proteus/docker/docker-compose.yml up -d
服务启动后,访问 http://localhost:8000 即可打开 Web 界面。也可以通过 https://localhost:9443 访问 Nginx 代理后的 HTTPS 服务。
命令行工具 (CLI)
Proteus AI 提供功能强大的命令行工具,方便在终端中直接交互:
# 安装 CLI 依赖
pip install -r cli/requirements_cli.txt
# 运行 CLI 工具进行聊天
python cli/proteus-cli.py chat "你好"
# 查看 CLI 帮助
python cli/proteus-cli.py --help
关于 CLI 工具的详细用法和高级功能,请参阅 cli/CLI_README.md。
⚙️ 配置说明
主要配置项在 proteus/.env 文件中,您需要从 proteus/.env.example 复制并配置:
必需配置
API_KEY: LLM API 密钥(必填)MODEL_NAME: 使用的模型名称(默认为deepseek-chat)
可选配置
REASONER_MODEL_NAME: 推理模型名称(可选)SERPER_API_KEY: 用于 Web 搜索的 Serper API 密钥(可选)MCP_CONFIG_PATH: MCP 配置文件路径(默认为./proteus/proteus_mcp_config.json)REDIS_HOST: Redis 服务器地址(默认为localhost)REDIS_PORT: Redis 服务器端口(默认为6379)REDIS_DB: Redis 数据库索引(默认为0)REDIS_PASSWORD: Redis 密码(可选)SANDBOX_URL: 沙箱服务 URL(默认为http://localhost:8001)
高级配置
LANGFUSE_ENABLED: 是否启用 Langfuse 监控(默认为true)BROWSER_USE_MODEL: 浏览器自动化使用的模型CAIYUN_TOKEN: 彩云天气 API tokenEMAIL_USER,EMAIL_PASSWORD: 邮件发送配置
🧠 Agent 功能详解
Proteus AI 提供了多种强大的智能体模式,每种模式针对不同的应用场景设计:
🤖 Chat 智能体
基础的对话智能体,支持工具调用和上下文管理:
# 使用 Chat 智能体进行对话
chat_agent = ChatAgent(
stream_manager=stream_manager,
model_name="deepseek-chat",
enable_tools=True,
tool_choices=["serper_search", "web_crawler", "python_execute"],
max_tool_iterations=5,
conversation_id=conversation_id,
user_name=user_name
)
# 运行智能体
result = await chat_agent.run(
chat_id=chat_id,
text="请搜索最新的人工智能发展动态并进行分析",
file_analysis_context=file_context
)
核心特性:
- 支持多轮对话和上下文记忆
- 动态工具调用和选择
- 文件上传和内容分析
- 实时流式响应
🔬 深度研究智能体 (Deep Research)
专门用于复杂研究任务的智能体,支持多轮深度探索:
# 深度研究智能体配置
deep_research_agent = ReactAgent(
tools=["python_execute", "serper_search", "web_crawler", "user_input"],
instruction="",
stream_manager=stream_manager,
max_iterations=10,
model_name="deepseek-chat",
prompt_template=REACT_PLAYBOOK_PROMPT_v3,
role_type=TeamRole.GENERAL_AGENT,
conversation_id=conversation_id,
user_name=user_name
)
# 执行深度研究任务
result = await deep_research_agent.run(
query="深入研究中美人工智能政策差异及其对产业发展的影响",
chat_id=chat_id
)
研究能力:
- 多源信息收集(搜索引擎、学术论文、网页内容)
- 深度分析和综合报告生成
- 自动化的数据验证和交叉验证
- 结构化研究成果输出
💻 CodeAct 智能体
专注于代码执行的智能体,特别适合编程和自动化任务:
# CodeAct 智能体配置
codeact_agent = ReactAgent(
tools=["python_execute", "user_input"],
instruction="""
你是一个CodeAct Agent,主要使用Python代码执行工具来完成用户请求的任务。
你可以使用Python代码进行任何计算、数据获取和处理。
在编写代码时,请确保代码安全且只执行必要的操作。
""",
stream_manager=stream_manager,
max_iterations=8,
model_name="deepseek-chat",
prompt_template=REACT_PLAYBOOK_PROMPT_v2,
role_type=TeamRole.GENERAL_AGENT,
conversation_id=conversation_id,
user_name=user_name
)
# 执行代码任务
result = await codeact_agent.run(
query="请编写一个Python脚本来分析这个数据集并生成可视化图表",
chat_id=chat_id,
context=dataset_context
)
编程能力:
- Python 代码编写和执行
- 数据处理和分析
- 自动化脚本生成
- 沙箱环境安全执行
🌐 浏览器智能体 (Browser Agent)
集成浏览器自动化的智能体,支持网页交互和数据提取:
# 浏览器智能体配置
browser_agent = ReactAgent(
tools=["browser_agent", "python_execute", "user_input", "serper_search", "web_crawler"],
instruction="",
stream_manager=stream_manager,
max_iterations=6,
model_name="deepseek-chat",
prompt_template=COT_BROWSER_USE_PROMPT_TEMPLATES,
role_type=TeamRole.GENERAL_AGENT,
conversation_id=conversation_id,
user_name=user_name
)
# 执行浏览器任务
result = await browser_agent.run(
query="请登录电商网站并搜索最新款手机的价格和评价",
chat_id=chat_id
)
浏览器能力:
- 网页自动化操作(点击、滚动、表单填写)
- 动态内容抓取
- 用户交互模拟
- 截图和页面状态记录
🦸 超级智能体 (Super Agent)
基于真实代码实现的智能团队组建和协调系统,能够自动分析复杂任务需求并组建专业团队:
核心工作流程
超级智能体遵循严格的问题评估→策略选择→团队组建→用户确认→团队执行的完整流程:
1. 问题复杂度评估
- 简单问题:直接回答,不使用团队
- 复杂问题:需要多步骤思考、专业知识、多领域结合或深度分析的问题
2. 团队组建流程
<!-- 第一步:生成团队配置 -->
<action>
<thinking>
这是一个关于构建机器学习模型进行股票预测的复杂问题,需要数据分析、特征工程、模型选择和评估等多个步骤。我应该组建一个专业团队来解决这个问题。
</thinking>
<team_generator>
<user_input>需要一个团队来构建股票预测模型,包括数据科学家负责数据分析和特征工程,机器学习工程师负责模型构建和调优,金融分析师提供领域知识,以及软件工程师负责部署</user_input>
<save_to_file>true</save_to_file>
<file_name>stock_prediction_team.yaml</file_name>
</team_generator>
</action>
<!-- 第二步:必须的用户确认步骤 -->
<action>
<thinking>
团队配置已生成,现在需要向用户展示生成的团队配置详情,并询问是否符合要求。用户确认后才会进行下一步的团队运行。
</thinking>
<user_input>
<prompt>我已为您生成了股票预测模型构建团队的配置。团队包含以下角色:
团队配置详情:
[这里会显示生成的团队配置内容]
请问这个团队配置是否符合您的要求?您可以选择:
1. 确认并继续 - 如果配置符合要求
2. 需要调整 - 如果需要修改某些角色或职责
3. 重新生成 - 如果需要完全重新规划团队
请输入您的选择(1/2/3)或详细说明您的要求:</prompt>
<input_type>text</input_type>
</user_input>
</action>
<!-- 第三步:根据用户确认执行团队运行 -->
<action>
<thinking>
用户已确认团队配置符合要求,现在可以运行这个团队来解决股票预测模型构建的问题
</thinking>
<team_runner>
<config_path>stock_prediction_team.yaml</config_path>
<query>请构建一个LSTM模型来预测未来7天的股票价格走势,使用过去3年的历史数据,考虑技术指标和基本面因素</query>
<max_iterations>10</max_iterations>
</team_runner>
</action>
3. 实际代码实现
# 在 proteus/main.py 中的超级智能体实现
if agentmodul == "super-agent":
# 超级智能体,智能组建team并完成任务
logger.info(f"[{chat_id}] 开始超级智能体请求")
prompt_template = COT_TEAM_PROMPT_TEMPLATES
agent = ReactAgent(
tools=["team_generator", "team_runner", "user_input"],
instruction="",
stream_manager=stream_manager,
max_iterations=itecount,
iteration_retry_delay=int(os.getenv("ITERATION_RETRY_DELAY", 30)),
model_name=model_name,
prompt_template=prompt_template,
role_type=TeamRole.GENERAL_AGENT,
conversation_id=conversation_id,
conversation_round=conversation_round,
user_name=user_name,
tool_memory_enabled=tool_memory_enabled,
sop_memory_enabled=sop_memory_enabled,
)
# 调用Agent的run方法,启用stream功能
result = await agent.run(query, chat_id)
await stream_manager.send_message(chat_id, await create_complete_event())
4. 团队生成节点 (TeamGeneratorNode)
# proteus/src/nodes/team_generator.py
class TeamGeneratorNode(BaseNode):
"""团队生成节点 - 根据用户输入生成团队配置的节点"""
async def execute(self, params: Dict[str, Any]) -> Dict[str, Any]:
user_input = str(params.get("user_input", "")).strip()
save_to_file = bool(params.get("save_to_file", False))
file_name = params.get("file_name", "")
# 调用team_manager生成团队配置
team_config = await self.team_manager.generate_team_config(user_input, request_id)
# 如果需要保存到文件
if save_to_file:
file_path = self.team_manager.save_team_config(team_config, file_name)
return {
"success": True,
"error": None,
"team_config": team_config,
"file_path": file_path if save_to_file else None
}
5. 团队运行节点 (TeamRunnerNode)
# proteus/src/nodes/team_runner.py
class TeamRunnerNode(BaseNode):
"""团队运行节点 - 接收配置文件地址,装配team并运行"""
async def execute(self, params: Dict[str, Any]) -> Dict[str, Any]:
config_path = str(params.get("config_path", "")).strip()
query = str(params.get("query", "")).strip()
chat_id = params.get("chat_id", f"chat-{int(time.time())}")
max_iterations = int(params.get("max_iterations", 5))
# 加载YAML配置
with open(full_config_path, "r", encoding="utf-8") as f:
team_config = yaml.safe_load(f)
# 创建团队实例
self.team = PagenticTeam(
team_rules=team_config["team_rules"],
tools_config=tools_config,
start_role=start_role_enum,
conversation_id=conversation_id,
)
# 注册并运行团队
await self.team.register_agents()
await self.team.run(query, chat_id)
return {
"success": True,
"error": None,
"chat_id": chat_id,
"execution_time": execution_time,
}
6. 团队配置文件示例
# conf/stock_prediction_team.yaml
team_rules: |
这是一个股票预测模型构建团队,各角色需要紧密协作:
- 数据科学家负责数据分析和特征工程
- 机器学习工程师负责模型构建和调优
- 金融分析师提供领域知识和市场分析
- 软件工程师负责模型部署和系统集成
start_role: COORDINATOR
roles:
COORDINATOR:
tools: ["serper_search", "web_crawler", "user_input"]
prompt_template: "COORDINATOR_PROMPT_TEMPLATES"
agent_description: "团队协调员,负责任务分配和进度管理"
role_description: "你是一个经验丰富的项目协调员"
termination_conditions:
- type: "ToolTerminationCondition"
max_iterations: 5
model_name: "deepseek-chat"
DATA_SCIENTIST:
tools: ["python_execute", "serper_search"]
prompt_template: "RESEARCHER_PROMPT_TEMPLATES"
agent_description: "数据科学家,负责数据分析和特征工程"
role_description: "你是一个专业的数据科学家"
termination_conditions:
- type: "ToolTerminationCondition"
max_iterations: 8
model_name: "deepseek-chat"
核心特性:
- 智能团队组建:基于任务需求自动生成专业团队配置
- 用户确认机制:团队配置必须经过用户确认才能执行
- 多角色协作:支持协调员、研究员、分析师等多种角色
- 动态角色管理:支持动态创建和配置团队角色
- 完整生命周期:团队生成→用户确认→团队运行→结果整合
- 配置持久化:支持将团队配置保存为YAML文件
- 实时监控:通过SSE实时展示团队执行进度和结果
👥 多智能体团队协作 (Multi-Agent Team)
预配置的专业团队,针对特定任务类型优化:
# 多智能体团队配置(基于YAML配置文件)
team = PagenticTeam(
team_rules=team_config["team_rules"],
tools_config=tools_config,
start_role=getattr(TeamRole, team_config["start_role"]),
conversation_round=conversation_round,
user_name=user_name,
tool_memory_enabled=True,
sop_memory_enabled=True
)
# 注册并运行团队
await team.register_agents(chat_id)
result = await team.run(
query="完成一个完整的技术研究报告,包括市场分析、技术评估和未来趋势预测",
chat_id=chat_id
)
团队特性:
- 预定义角色和职责(研究员、分析师、协调员等)
- 专业化工具配置
- 记忆共享和知识传递
- 任务交接和进度跟踪
🔧 高级功能
工具记忆系统
# 启用工具记忆
agent = ReactAgent(
tools=all_tools,
instruction="",
stream_manager=stream_manager,
tool_memory_enabled=True, # 启用工具记忆
sop_memory_enabled=True, # 启用SOP记忆
user_name=user_name # 用户隔离
)
会话管理
# 会话历史管理
conversation_manager = ConversationManager(
conversation_id=conversation_id,
user_name=user_name,
max_rounds=50 # 最大对话轮次
)
实时监控
# 实时状态监控
async for message in stream_manager.get_messages(chat_id):
data = JSON.parse(message.data)
# 处理智能体思考过程、工具调用、执行结果等实时信息
🛠️ 开发指南
1. 项目结构
proteus-ai/
├── proteus/ # 主应用目录
│ ├── src/ # 源代码
│ │ ├── agent/ # 智能体系统
│ │ ├── nodes/ # 节点实现
│ │ ├── api/ # API 接口
│ │ ├── core/ # 核心引擎
│ │ └── utils/ # 工具函数
│ ├── static/ # 静态文件
│ ├── conf/ # 配置文件
│ ├── docker/ # Docker 配置
│ └── requirements.txt # Python 依赖
├── examples/ # 使用示例
├── cli/ # 命令行工具
└── docs/ # 文档
2. 添加新节点类型
- 在
proteus/src/nodes/目录下创建新的节点文件
# proteus/src/nodes/custom_node.py
from src.nodes.base import BaseNode
class CustomNode(BaseNode):
def __init__(self, node_id, params):
super().__init__(node_id, params)
async def execute(self, context):
# 实现节点逻辑
result = await self._process_data(context)
return {"success": True, "data": result}
async def _process_data(self, context):
# 自定义处理逻辑
return "处理结果"
- 在
proteus/src/nodes/node_config.yaml中注册节点配置
CustomNode:
type: "custom_node"
class: "src.nodes.custom_node.CustomNode"
name: "自定义节点"
description: "自定义节点功能描述"
output:
result: "执行结果"
params:
param1:
type: "str"
required: true
description: "参数1描述"
3. 扩展 Agent 功能
- 在
proteus/src/agent/prompt/中添加新的提示词模板
# proteus/src/agent/prompt/custom_prompt.py
CUSTOM_PROMPT_TEMPLATE = """
你是一个自定义智能体,请根据以下要求执行任务:
{instruction}
可用工具:{tools}
当前任务:{query}
"""
-
修改
proteus/src/agent/agent.py实现新的推理方法 -
注册新的工具到 Agent 系统
4. 前端开发
- 静态资源位于
proteus/static/目录 - 使用 SSE 接收实时更新:
const eventSource = new EventSource(`/stream/${chatId}`);
eventSource.onmessage = (event) => {
const data = JSON.parse(event.data);
// 处理实时数据
};
5. 测试指南
# 单元测试
python -m pytest tests/unit/
# 集成测试
python -m pytest tests/integration/
# 端到端测试
python -m pytest tests/e2e/
6. 使用 MCP 功能
- 配置 MCP 服务器
在 proteus/proteus_mcp_config.json 中配置 MCP 服务器信息:
{
"mcpServers": {
"server-name": {
"type": "sse",
"url": "https://your-mcp-server-url"
}
}
}
- 在代码中使用 MCP 管理器
from proteus.src.manager.mcp_manager import get_mcp_manager, initialize_mcp_manager
# 初始化 MCP 管理器
await initialize_mcp_manager()
# 获取 MCP 管理器实例
mcp_manager = get_mcp_manager()
# 获取所有工具
tools = mcp_manager.get_all_tools()
# 获取所有资源
resources = mcp_manager.get_all_resources()
- 在 Agent 中使用 MCP 工具
- 选择"MCP 智能体"模式
- 或在自定义 Agent 中配置 MCP 工具
🔮 未来计划
我们致力于不断改进 Proteus 引擎,以下是未来可能优先考虑的功能和优化:
核心功能增强
- 完善工作流的暂停和恢复机制
- 引入工作流模板系统
- 实现工作流版本控制
- 增加节点执行超时机制
节点类型扩展
- 集成更多主流 AI 模型和第三方服务 API
- 实现文件格式转换节点
- 添加邮件和消息通知节点
Agent 系统优化
- 进一步优化 Chain-of-Thought 推理
- 增强多智能体协作机制
- 实现智能体记忆系统和知识共享
- 增强错误处理和恢复能力
用户体验改进
- 优化 Web 界面交互
- 添加工作流调试工具
- 实现工作流执行日志导出功能
- 增加性能监控面板
部署和运维
- 添加集群部署支持
- 实现自动化测试框架
- 优化资源使用效率
- 增加监控告警机制
🤝 贡献指南
欢迎提交 Issue 和 Pull Request 来帮助改进项目。在提交代码前,请确保:
- 代码符合项目的编码规范
- 添加了必要的测试用例
- 更新了相关文档
- 遵循 Git 提交规范
- 通过所有 CI 检查
开发环境设置
- Fork 项目仓库
- 克隆你的 fork:
git clone https://github.com/yourusername/proteus-ai.git cd proteus-ai - 创建功能分支:
git checkout -b feature/your-feature-name - 提交更改:
git commit -m "Add your feature description" - 推送到分支:
git push origin feature/your-feature-name - 创建 Pull Request
📄 许可证
本项目采用 MIT 许可证,详见 LICENSE 文件。
🔗 相关资源
- API 文档 (启动服务后访问)
- 示例配置
- Docker 部署指南
- CLI 工具文档
💬 支持与反馈
如果您在使用过程中遇到问题或有改进建议,请通过以下方式联系我们:
- 提交 GitHub Issue
- 查看 文档
- 参与社区讨论
Proteus AI - 让复杂任务变得简单自动化
Related Servers
Scout Monitoring MCP
sponsorPut performance and error data directly in the hands of your AI assistant.
Alpha Vantage MCP Server
sponsorAccess financial market data: realtime & historical stock, ETF, options, forex, crypto, commodities, fundamentals, technical indicators, & more
302AI Image
A Model Context Protocol server for generating images using the 302AI API.
MCP-Inscription Server
Interact with Ordinals Inscriptions and display content from transactions.
Remote MCP Server on Cloudflare
Deploy a remote MCP server without authentication on Cloudflare Workers.
MCP Server with GitHub OAuth
An MCP server with built-in GitHub OAuth support, designed for deployment on Cloudflare Workers.
s&box MCP Server
Enables AI assistants to interact with s&box game objects and components via WebSocket communication.
ADB Friend
A CLI tool for developers to manage Android devices via ADB.
Hackle
Query A/B test data using the Hackle API.
Crypto_MCP
A server for cryptographic operations like encryption, decryption, and hashing.
CCXT MCP Server
Integrate with cryptocurrency exchanges using the CCXT library.
Dan MCP
An example MCP server deployed on Cloudflare Workers without authentication.