Neural memory
A memory for AI, without cloud service or fee, everything local (Most useful for coding)
🧠 Neural Memory v2.0
Sistema MCP (Model Context Protocol) per memorizzazione e recupero contestuale della conoscenza.
🚀 Prova Neural Memory ORA!
Vuoi provarlo subito nel tuo Cline? Aggiungi questa configurazione al tuo cline_mcp_settings.json:
{
"mcpServers": {
"neural-memory": {
"timeout": 120,
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@drakonkat/neural-memory@latest"
]
}
}
}
Per uso locale (sviluppo)
{
"mcpServers": {
"neural-memory": {
"timeout": 120,
"type": "stdio",
"command": "node",
"args": [
"./neural-memory/src/index.js"
]
}
}
}
⚠️ Nota: Sostituisci il path con quello del tuo progetto locale!
Novità v2.0
🎯 Database Unificato
- No più database separati per progetto! Tutta la memoria risiede in un unico database SQLite
- Più veloce, più semplice, zero configurazione
📋 Session Management
- Inizia/riprendi/chiudi sessioni di lavoro
- Tracciamento automatico: nodi creati, skills apprese, durata
- Snapshot contesto dettagliato
🎓 Skills Framework
- Schema rigido per registrare skills con struttura consistente
framework,language,filePattern,learnSteps,useCases- Suggerimento automatico basato su contesto
📊 Reports HTML
- Genera report visivi della tua memoria
- Statistiche, skills più usate, lavoro recente
Quick Start
import { initialize, handleMcpRequest } from 'neural-memory';
// Inizializza il servizio
await initialize();
// Inizia una sessione
const session = await handleMcpRequest('start_session', {
name: 'Refactoring API Gateway',
tags: ['backend', 'api']
});
// Registra una skill
await handleMcpRequest('register_skill', {
name: 'Fastify CRUD API',
framework: 'fastify',
language: 'javascript',
filePattern: '**/*.service.js',
learnSteps: [
'1. Inizializzare progetto',
'2. Creare schema validazione',
'3. Implementare handler'
],
useCases: [
'Creare API REST',
'Gestire errori standardizzati'
]
});
// Cerca skills
const skills = await handleMcpRequest('suggest_skills', {
currentKeywords: ['fastify', 'api'],
domain: 'javascript'
});
// Salva contesto
await handleMcpRequest('save_context_snapshot', {
summary: 'Refactoring completato 80%',
pendingTasks: ['Test integrazione', 'Deploy staging'],
learnings: ['Prisma richiede migration esplicite']
});
// Chiudi sessione
await handleMcpRequest('end_session', {
sessionId: session.session_id
});
Tools Disponibili
Session Management
| Tool | Descrizione |
|---|---|
start_session | Inizia nuova sessione |
resume_session | Riprendi sessione esistente |
end_session | Chiudi sessione |
list_sessions | Lista sessioni con filtri |
Skills Framework
| Tool | Descrizione |
|---|---|
register_skill | Registra skill (schema rigido) |
apply_skill | Trova e applica skill |
suggest_skills | Suggerisci skills |
Context Management
| Tool | Descrizione |
|---|---|
save_context_snapshot | Salva snapshot |
restore_context | Recupera contesto |
generate_session_summary | Riassunto sessione |
Node Management
| Tool | Descrizione |
|---|---|
add_node | Aggiungi nodo |
search_nodes | Cerca nodi (con confidence) |
get_node_context | Contesto nodo |
link_nodes | Collega nodi |
update_node | Aggiorna nodo |
delete_node | Elimina nodo |
Reports
| Tool | Descrizione |
|---|---|
get_memory_report | Report JSON/HTML |
suggest_nodes | Suggerisci nodi |
Node Types
| Type | Priority | Use Case |
|---|---|---|
skill | ⭐⭐⭐ | Knowledge skill |
error | ⭐⭐⭐ | Errore risolto |
operation | ⭐⭐ | How-to |
convention | ⭐⭐ | Regole naming |
edge_case | ⭐⭐ | Caso limite |
pattern | ⭐ | Design pattern |
task | ⭐ | Task completato |
generic | ⭐ | Nodo generico |
Confidence Scoring
Il sistema calcola un confidence score (0.0-1.0) per ogni risultato basato su:
- BM25 Score (35%) - Full-text search ranking
- Keyword Match (25%) - Sovrapposizione keywords
- Recency Bonus (10%) - Nodi recenti preferiti
- Type Score (15%) - Skills/errors più importanti
- Weight (15%) - Peso manuale
Schema Skill Rigido
{
"name": "Nome Skill",
"framework": "fastify|react|prisma|...",
"language": "javascript|typescript|python|...",
"filePattern": "**/*.service.js",
"learnSteps": ["Passo 1", "Passo 2"],
"useCases": ["Caso 1", "Caso 2"],
"implementation": "// Codice...",
"examples": ["file1.js"],
"prerequisites": ["Prerequisito 1"]
}
Installazione
npm install neural-memory
Database
Il database unificato si trova in:
data/neural-memory-unified.sqlite
License
MIT
関連サーバー
Alpha Vantage MCP Server
スポンサーAccess financial market data: realtime & historical stock, ETF, options, forex, crypto, commodities, fundamentals, technical indicators, & more
atlassian-browser-mcp
rowser-backed MCP wrapper for mcp-atlassian with Playwright SSO auth. Enables AI tools to access Atlassian Server/Data Center instances behind corporate SSO (Okta, SAML, ADFS) where API tokens are not available.
Botrite by Lattiq
Stateful health monitoring, diagnostics, and web attestation for AI agents. 11 MCP tools. Free Founder's Beta
SpecLock
AI constraint engine — persistent memory + active enforcement. Stops AI from breaking locked code. Semantic conflict detection, file-level guards, session continuity. 19 MCP tools.
Envoy
MCP server for TouchDesigner — 45 tools let AI assistants create operators, set parameters, wire connections, and manage projects through natural conversation.
Text-To-GraphQL
MCP server for text-to-graphql, integrates with Claude Desktop and Cursor.
Gemini CLI
Integrates with the unofficial Google Gemini CLI, allowing file access within configured directories.
MCP Ai server for Visual Studio
Visual Studio extension with 20 Roslyn-powered MCP tools for AI assistants. Semantic code navigation, symbol search, inheritance, call graphs, safe rename, build/test.
SolHunt Solana Wallet Intelligence
Solana wallet health analysis platform and top-notch dev tool. Helps people and agents to recover their SOLs from burner and old wallets super securely. Features a complete trustless recovery flow natively via MCP: preview yields, build unsigned transactions, and sign locally.
vidlizer
Extract structured JSON from video, images, and PDFs using local LLMs (Ollama, LM Studio, oMLX) or via OpenRouter. Runs fully offline
Translator AI
Translate JSON i18n files using Google Gemini or local Ollama models, with incremental caching support.