Proteus Workflow Engine
A modern, extensible multi-agent workflow engine with real-time monitoring and a web visualization interface.
Proteus AI:极简智能个人助理
Proteus AI 是一款极简的个人 AI 助理,提供 Web 网页端和 Android 客户端,让你随时随地享受强大的 AI 能力。它能进行深度研究、多任务并行深度研究,并兼容丰富的技能扩展生态(内置 59 个专业技能),让每一个人都能拥有属于自己的智能助理。
🌊 项目名称由来
Proteus(普罗透斯)源自希腊神话中的海神,他以能够随意改变自己的形态而闻名。这个名字完美契合了本项目的核心特性:
- 强大的适应性:支持从日常对话到复杂深度研究的各种场景
- 智能工具调用:根据任务自动选择搜索、代码执行、网页爬取等最合适的工具
- 极度灵活:通过技能系统扩展能力,满足个人或团队的专属需求
✨ 核心特性
🔬 深度研究 & 多任务深度研究
- 深度研究:对指定主题进行系统性多源研究,自动搜索、整理、分析,生成专业研究报告
- 多任务深度研究:多个智能体并行协作,同时处理多个研究子任务,大幅提升研究效率
- 多源信息验证:整合搜索引擎、学术论文、网页爬取等多种信息源,交叉验证提升报告质量
🛠️ 丰富的技能生态(59 个内置技能)
支持一键调用预定义技能,覆盖从研究、开发到内容创作的各类场景:
| 技能分类 | 代表技能 | 说明 |
|---|---|---|
| 研究与分析 | deep-research、stock-research、consultant | 深度研究、股票研究、专业咨询 |
| 开发与部署 | cloudflare-deploy、vercel-deploy、netlify-deploy | 一键云端部署 |
| 内容创作 | doc、docx、spreadsheet、canvas-design | 文档、表格、设计稿生成 |
| 协作与集成 | notion-*、linear、slack-gif-creator、sentry | 主流协作工具集成 |
| 多媒体 | imagegen、sora、transcribe、speech | 图像生成、视频、语音处理 |
| 代码与工程 | create-pr、gh-fix-ci、webapp-testing、mcp-builder | 自动化工程任务 |
🌐 Web 网页端
- 极简对话界面:开箱即用,无需安装,打开浏览器即可与 AI 对话
- 实时流式回复:通过 SSE 实时展示 AI 思考过程和回复内容
- 思考链路可视化:直观展示 AI 的推理步骤和工具调用过程
- Markdown & Mermaid 渲染:支持富文本格式,自动渲染流程图、时序图等
- 会话历史管理:随时切换和回顾历史对话记录
📱 Android 客户端
- 随时随地:手机端与 Web 端功能对等,随时随地使用 AI 助理
- 三种增强模式:一键开启深度研究 🌐 / 网络搜索 🔍 / 技能调用 🛠️
- 实时流式对话:SSE 实时接收 AI 回复,支持 Markdown 和 Mermaid 图表渲染
- 思考过程展示:可折叠卡片展示 AI 推理链路和工具调用详情
- Material Design 3:支持深色/浅色主题自动切换
🧠 智能对话系统
- 多轮对话与上下文管理:支持多轮对话,保持上下文连贯性
- 动态工具调用:根据任务需求自动选择并调用内置或外部工具
- 文件分析:支持上传文件并基于文件内容进行问答和分析
- 工具记忆:记录工具调用历史,持续优化交互体验
🔌 MCP (Model Context Protocol) 支持
- 标准化外部工具集成:支持 MCP 标准,动态加载和管理外部工具和资源
- 远程 MCP 服务器集成:通过 MCP 客户端节点与外部服务无缝交互
🛡️ 安全沙箱环境
提供独立的沙箱环境,用于安全地执行 Python 代码和终端命令,隔离潜在风险。
📋 深度研究报告示例
以下为 Proteus AI 深度研究功能生成的真实报告示例,展示其在复杂信息收集、多源分析、结构化输出方面的能力:
🚀 快速开始
💡 三步即可拥有自己的 AI 助理:部署服务 → 打开浏览器或安装 App → 开始对话
请严格遵循以下流程构建和启动项目。
前提条件
- Docker & Docker Compose
- OpenSSL (用于生成 SSL 证书)
构建与启动流程
1. 构建 Sandbox 镜像
首先构建用于安全执行代码的沙箱环境镜像。
cd sandbox
./build.sh
cd ..
2. 构建 Proteus 镜像
构建核心 Agent 服务的镜像。
cd proteus
docker build -t proteus-agent .
3. 生成 SSL 证书
为 Nginx 服务生成 SSL 证书,以支持 HTTPS 访问。
# 确保在 proteus 目录下
./bin/generate-ssl-cert.sh
4. 启动服务
进入 Docker 目录并启动所有服务。
cd docker
# 首次启动前,请确保配置了必要的环境变量
# 复制示例配置文件
# cp volumes/agent/.env.example volumes/agent/.env
# cp volumes/sandbox/.env.example volumes/sandbox/.env
# 启动服务
docker-compose up -d
服务启动后:
- Web 界面访问地址:
https://localhost(通过 Nginx 代理) 或http://localhost:8000 - Sandbox 服务运行在:
http://localhost:8000(容器内部端口)
⚙️ 配置说明
主要配置项位于 proteus/docker/volumes/agent/.env 文件中。您需要从 .env.example 复制并配置:
🤖 智能体模式
Proteus AI 提供多种智能体运行模式,在 Web 端或 App 端发送消息时可按需选择:
| 模式 | 使用场景 |
|---|---|
chat | 日常对话,支持工具调用和多轮上下文 |
task | 自动规划并完成复杂任务 |
workflow | 执行可视化工作流 |
super-agent | 超级智能体,更强规划与执行能力 |
mcp-agent | 通过 Model Context Protocol 调用外部工具 |
browser-agent | 自动化网页交互操作 |
deep-research | 深度研究:对指定主题系统性研究,自动生成研究报告 |
deep-research-multi | 多任务深度研究:多智能体协作,并行处理多个研究子任务 |
codeact-agent | 通过编写并运行代码解决问题 |
📚 技能系统
Proteus AI 内置 59 个专业技能,发送消息时启用"技能调用"模式即可使用。技能由 AI 自动解析并执行,无需手动配置:
skills/
├── deep-research/ # 深度研究,生成专业分析报告
├── multi-task-deep-research/ # 多任务并行深度研究
├── stock-research/ # 股票与金融研究
├── consultant/ # 专业咨询顾问
├── cloudflare-deploy/ # Cloudflare 自动部署
├── vercel-deploy/ # Vercel 自动部署
├── netlify-deploy/ # Netlify 自动部署
├── create-pr/ # 自动创建 GitHub PR
├── gh-fix-ci/ # 自动修复 CI 失败
├── doc/ & docx/ # 文档自动生成
├── spreadsheet/ # 表格数据处理
├── imagegen/ # AI 图像生成
├── speech/ & transcribe/ # 语音处理与转录
├── figma/ # Figma 设计稿集成
├── notion-*/ # Notion 知识库集成(4 个技能)
├── sentry/ # 错误监控集成
└── ... # 更多技能持续扩展中
💡 技能存储在
proteus/docker/volumes/agent/skills/目录,可自由添加自定义技能扩展能力。
🧠 Chat 智能体(开发者参考)
Proteus AI 的核心是 Chat 智能体,支持工具调用和上下文管理:
# 使用 Chat 智能体进行对话
chat_agent = ChatAgent(
stream_manager=stream_manager,
model_name="deepseek-chat",
enable_tools=True,
tool_choices=["serper_search", "web_crawler", "python_execute"],
max_tool_iterations=5,
conversation_id=conversation_id,
conversation_round=5,
enable_tool_memory=True,
enable_skills_memory=True,
user_name=user_name,
selected_skills=selected_skills,
workspace_path=workspace_path, # 可选,工作区路径
)
# 运行智能体
result = await chat_agent.run(
chat_id=chat_id,
text="请搜索最新的人工智能发展动态并进行分析",
file_analysis_context=file_context
)
核心特性:
- 多轮对话:支持上下文记忆,能够理解对话历史
- 动态工具调用:根据用户意图自动选择并调用合适的工具(如搜索、代码执行、网页爬取)
- 文件分析:支持上传文件并基于文件内容进行问答和分析
- 实时流式响应:通过 SSE 实时输出思考过程和回复内容
- 技能系统:支持技能调用和技能记忆,可扩展智能体能力
- 工具记忆:记录工具调用历史,优化后续交互
🛠️ 开发指南
1. 项目结构
proteus-ai/
├── proteus/ # 主应用目录
│ ├── src/ # 源代码
│ │ ├── agent/ # 智能体系统(chat_agent.py、base_agent.py、prompt/)
│ │ ├── nodes/ # 节点实现(agent_node_config.yaml 及各节点文件)
│ │ ├── api/ # API 接口(stream_manager、llm_api、events 等)
│ │ ├── auth/ # 认证模块
│ │ ├── login/ # 登录模块
│ │ ├── manager/ # 管理器模块(会话、模型等)
│ │ ├── tasks/ # 任务处理器
│ │ └── utils/ # 工具函数
│ ├── static/ # 静态文件(Web 界面)
│ ├── conf/ # 配置文件(压缩策略、模型配置等)
│ ├── docker/ # Docker 配置及 volumes
│ ├── bin/ # 脚本工具(SSL 证书生成等)
│ ├── scripts/ # 辅助脚本
│ ├── tests/ # 测试文件
│ └── requirements.txt # Python 依赖
├── sandbox/ # 沙箱环境(安全代码执行)
├── app/ # Android 客户端
│ └── src/ # Kotlin/Compose 源码
├── server/ # 轻量级 Web 服务器
│ ├── main.py # FastAPI 主应用
│ ├── requirements.txt # Python 依赖
│ └── .env.example # 环境变量示例
├── examples/ # 使用示例
│ ├── deep-research/ # 深度研究报告示例
│ └── self_improving_agent/ # 自我改进智能体示例
├── AGENTS.md # 智能体详细文档
└── README.md # 项目说明
2. 添加新节点类型
- 在
proteus/src/nodes/目录下创建新的节点文件 - 在
proteus/src/nodes/agent_node_config.yaml中注册 Agent 工具配置
3. 扩展 Agent 功能
- 在
proteus/src/agent/prompt/中添加新的提示词模板 - 修改
proteus/src/agent/agent.py实现新的推理方法 - 注册新的工具到 Agent 系统
4. 前端开发
- 静态资源位于
proteus/static/目录 - 使用 SSE 接收实时更新
5. 测试指南
# 运行测试
cd proteus
python -m pytest tests/
6. 使用 MCP 功能
- 配置 MCP 服务器
- 在代码中使用 MCP 管理器
- 在 Agent 中使用 MCP 工具
📱 Android 客户端 (app/)
app/ 目录包含 Proteus AI 的官方 Android 客户端,基于 Jetpack Compose + Kotlin + Material Design 3 构建,让你随时随地通过手机使用 AI 个人助理服务。详细说明见 app/README.md。
主要功能
- 实时流式对话:通过 SSE 实时接收 AI 回复,支持 Markdown 渲染和 Mermaid 图表
- 思考过程可视化:可折叠卡片展示 AI 推理链路和工具调用详情
- 三种增强模式:深度研究 🌐 / 网络搜索 🔍 / 技能调用 🛠️,按需一键开启
- 会话历史管理:侧边栏显示所有历史对话,点击即可加载历史记录
- Token 管理:Bearer Token 安全持久化存储
- 停止任务:AI 回复过程中可随时中断
- Material Design 3:支持深色/浅色主题自动切换
快速上手
1. 启动后端服务
按照本 README 上方的"快速开始"章节启动 Proteus AI 后端服务。
2. 编译安装应用
# 进入 app 目录
cd app
# 编译调试版 APK(需已配置 Android SDK 环境变量)
./gradlew assembleDebug
# 安装到已连接的 Android 设备
adb install app/build/outputs/apk/debug/app-debug.apk
推荐使用 Android Studio 2023.3+ 打开
app/目录,点击 ▶️ Run 直接安装并运行。
3. 配置服务器地址
| 场景 | 配置方式 |
|---|---|
| Android 模拟器访问本机(默认) | 无需修改,默认 http://10.0.2.2:8888/ |
| 真机访问局域网服务器 | 修改 app/build.gradle.kts 中 defaultConfig 的 BASE_URL 为局域网 IP |
| 生产环境 | 修改 buildTypes.release 中的 BASE_URL |
4. 首次使用
- 启动应用,自动弹出 Token 配置对话框
- 输入 Proteus AI 后端服务的 Bearer Token
- 确认后自动加载历史会话,即可开始对话
更多详细说明(架构、接口文档、常见问题等)请查看
app/README.md。
🌐 轻量级 Web 服务器 (server/)
server/ 目录包含一个基于 FastAPI 的轻量级 Web 服务器,提供对话管理、模型配置查询、任务队列提交和 SSE 流式重放等接口,详细说明见 server/README.md。
主要接口
| 方法 | 路径 | 说明 |
|---|---|---|
GET | /conversations | 获取当前用户的会话列表 |
GET | /conversations/{id} | 获取指定会话详情 |
GET | /models | 获取可用模型列表 |
GET | /replay/stream/{chat_id} | SSE 流式重放已保存的聊天记录 |
POST | /submit_task | 提交任务到 Redis 队列 |
GET | /health | 服务健康检查 |
快速启动
cd server
# 安装依赖
pip install -r requirements.txt
# 配置环境变量
cp .env.example .env
# 编辑 .env,填写 Redis 连接信息
# 启动服务
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
服务启动后可访问:
- Swagger UI:http://localhost:8000/docs
- ReDoc:http://localhost:8000/redoc
认证方式
在请求头中携带 Bearer Token:
Authorization: Bearer <your_token>
🔮 未来计划
我们致力于不断改进 Proteus AI 个人助理,以下是未来可能优先考虑的功能和优化:
核心功能增强
- 支持更多 LLM 模型(GPT-4o、Claude、Gemini 等)
- 增强多智能体协作与并行深度研究能力
- 实现智能体记忆系统和跨会话知识共享
- 增强错误处理和自动恢复能力
技能生态扩展
- 持续新增专业技能,覆盖更多垂直领域
- 支持用户自定义并分享技能
- 技能市场与技能版本管理
用户体验改进
- 优化 Web 界面交互,提升极简体验
- 增加文件上传与多模态(图像、语音)支持
- Android App 离线缓存与推送通知
- 支持 iOS 客户端
部署和运维
- 添加集群部署支持
- 优化资源使用效率
- 增加监控告警机制
🤝 贡献指南
欢迎提交 Issue 和 Pull Request 来帮助改进项目。在提交代码前,请确保:
- 代码符合项目的编码规范
- 添加了必要的测试用例
- 更新了相关文档
- 遵循 Git 提交规范
- 通过所有 CI 检查
📄 许可证
本项目采用 MIT 许可证,详见 LICENSE 文件。
🔗 相关资源
- API 文档 (启动服务后访问)
- 示例配置
- Docker 部署指南
- 智能体详细文档
- Android 客户端说明
- 轻量级 Web 服务器说明
💬 支持与反馈
如果您在使用过程中遇到问题或有改进建议,请通过以下方式联系我们:
- 提交 GitHub Issue
- 查看 项目文档
- 参与社区讨论
Proteus AI - 极简个人助理,让深度研究与复杂任务触手可及
Related Servers
Scout Monitoring MCP
sponsorPut performance and error data directly in the hands of your AI assistant.
Alpha Vantage MCP Server
sponsorAccess financial market data: realtime & historical stock, ETF, options, forex, crypto, commodities, fundamentals, technical indicators, & more
DevServer MCP
Manages development servers for LLM-assisted workflows, offering programmatic control through a unified TUI and experimental browser automation via Playwright.
MCP for Docs
Automatically downloads and converts documentation from various sources into organized markdown files.
Integrated MCPs Guide
An integrated MCP server combining Azure DevOps, Gmail, Browser, and Gemini AI functionalities on a Node.js server.
VSCode MCP Server
A VSCode extension that acts as an MCP server, providing access to diagnostic tools and debug session management.
Lenses
Manage, explore, transform and join data across multiple clusters using different flavours of Apache Kafka via Lenses.io (including the free Community Edition)
refactor-mcp
Refactor code using regex-based search and replace.
Revit MCP
Interact with Autodesk Revit using the MCP protocol. This server provides AI tools and requires the corresponding Revit plugin to function.
Tailkits UI
Tailwind Components with Native MCP Support
EdgeOne Pages MCP
An MCP server implementation using EdgeOne Pages Functions for intelligent chat applications.
Devopness
Devopness MCP server for DevOps happiness! Empower AI Agents to deploy apps and infra, to any cloud.