InfoLeg
MCP to wrap https://www.infoleg.gob.ar site's capabilities
InfoLeg MCP Server
Servidor basado en Python que implementa el Model Context Protocol (MCP) para proveer una interfaz de interacción directa con la base de datos de InfoLeg (Información Legislativa de la República Argentina).
Con este servidor, un agente de IA (como Claude) puede buscar normas, leer sus textos originales o actualizados, rastrear el historial de modificaciones de una ley y buscar organismos emisores, todo sin salir del contexto de la conversación.
Capacidades y Herramientas
El servidor expone diversas herramientas estandarizadas para interactuar con InfoLeg:
Búsqueda y Navegación
- buscar_normas: Búsqueda avanzada de normas jurídicas usando múltiples filtros (texto libre, número, tipo, dependencias, fechas). Soporta operadores lógicos (AND, OR, NOT,
*). - ver_norma: Obtiene los metadatos completos y sumario de una norma a partir de su ID único.
Textos de Normas
- obtener_texto_actualizado: Retorna el texto VIGENTE de una norma (con modificaciones aplicadas). Se devuelve de forma paginada para optimizar el consumo de contexto.
- obtener_texto_original: Retorna el texto ORIGINAL de una norma tal cual fue sancionada.
Trazabilidad y Modificaciones
- ver_normas_que_modifica: Rastrea el impacto de una norma indicando qué otras normas anteriores modificó, derogó o complementó.
- ver_normas_que_la_modifican: Muestra el historial de alteraciones que recibió una norma por parte de normas posteriores.
Dependencias y Tipos
- buscar_dependencias: Búsqueda por nombre (fuzzy search) para encontrar el ID de organismos emisores (ej. AFIP, Ministerios).
- get_dependencia_by_id: Obtiene los datos exactos de una dependencia a partir de un ID conocido.
- Recurso
tipos-norma: Catálogo de tipos de norma (Leyes, Decretos) con su ID y nombre. Ideal para consultar antes de realizar búsquedas.
Instalación y Uso Local
Este proyecto utiliza uv para la gestión de dependencias.
-
Instalar dependencias:
uv sync -
Ejecutar el servidor:
uv run python ./src/server.py
Docker
Para ejecutar el servidor en un contenedor:
-
Construir la imagen:
docker build -t infoleg-mcp . -
Ejecutar el contenedor:
docker run -p 8000:8000 infoleg-mcp
El servidor estará disponible en http://localhost:8000 y el endpoint de conexión MCP es http://localhost:8000/sse.
Conectar MCP
Para usarlo como conector el servidor debe ser accesible vía HTTPS. Podes desplegar la imagen de Docker en un servicio de nube (GCP, AWS, etc) o exponerlo en un servidor local usando una herramienta como ngrok.
Pasos para agregarlo en Claude
- En Claude.ai Configuración > Conectores > Agregar Conector Personalizado.
- Pega la URL HTTPS de tu servidor desplegado incluyendo el endpoint
/sse(ej:https://tu-dominio.com/sse). - Verifica que el agente tenga acceso a las tools para interactuar con InfoLeg
相关服务器
Evo2 MCP
MCP server for generating, scoring and embedding genomic sequences using Evo 2
SectorHQ
Real-time AI company intelligence — track which AI companies are actually shipping vs just announcing, with live rankings, hype/reality gaps, and momentum signals.
ThinkPLC-MCP
Interface with SIEMENS PLC S7-1500/1200 using their JSON-RPC 2.0 API, exposing PLC functionalities as MCP tools for programmatic interaction.
RuneScape
Interact with RuneScape (RS) and Old School RuneScape (OSRS) data, including item prices and player hiscores.
GNOME Desktop MCP
GNOME Shell extension + Python MCP server giving AI assistants 30 tools to automate the Linux desktop: screenshots, window management, mouse/keyboard injection, clipboard, and workspaces.
Elecz
Real-time electricity spot prices and contract recommendations for AI agents — covering the Nordics and Germany.
Euroleague Live
Provides club information and advanced player statistics for Euroleague and Eurocup basketball from the Euroleague API.
VMS Integration
Connects to a CCTV recording program (VMS) to retrieve recorded and live video streams and control the VMS software.
Ingero
eBPF-based GPU causal observability agent with MCP server. Traces CUDA Runtime/Driver APIs via uprobes and host kernel events via tracepoints to build causal chains explaining GPU latency. 7 MCP tools for AI-assisted GPU debugging and root cause analysis. <2% overhead, production-safe.
Topolograph MCP
A MCP server that enables LLMs to interact with OSPF and IS-IS protocols and analyze network topologies, query network events, and perform path calculations for OSPF and IS-IS protocols.