Tutti parlavano di MCP. Nessuno aveva costruito il bridge Python giusto
Ho iniziato con Ollama, un runner di modelli linguistici locale, ma ho incontrato una limitazione significativa: nessun supporto per il Model Context Protocol (MCP). Mentre esistevano bridge in Go e TypeScript, non c'era una soluzione Python-nativa, API-first e orientata alla privacy dei dati.
Ad agosto 2025, nove mesi dopo il rilascio di MCP, ho costruito un prototipo funzionante in un weekend. Il principio fondamentale a cui puntavo era uno e senza compromessi: i miei dati restano con me. A differenza delle soluzioni AI cloud che richiedono il transito dei dati attraverso infrastrutture esterne, questo approccio mantiene sia i modelli che gli strumenti in locale.
Il progetto è stato rilasciato gratuitamente su GitHub come ollama-fastmcp-wrapper sotto licenza MIT, colmando un vuoto che persisteva — una issue su GitHub (#7865) rimane al momento in cui scrivo ancora aperta.
Applicazioni pratiche
Il bridge abilita diversi casi d'uso:
- Assistente di ricerca privato — integrazione filesystem locale e ricerca web per la sintesi di documenti
- Agente di programmazione locale — connessioni Git e filesystem senza costi di abbonamento
- Analista dati — integrazione SQLite/DuckDB per l'esecuzione di query locali
- Operazioni offline — esecuzione shell e automazione su sistemi air-gapped