Ho iniziato con Ollama, un runner di modelli linguistici locale, ma ho incontrato una limitazione significativa: nessun supporto per il Model Context Protocol (MCP). Mentre esistevano bridge in Go e TypeScript, non c'era una soluzione Python-nativa, API-first e orientata alla privacy dei dati.

Ad agosto 2025, nove mesi dopo il rilascio di MCP, ho costruito un prototipo funzionante in un weekend. Il principio fondamentale a cui puntavo era uno e senza compromessi: i miei dati restano con me. A differenza delle soluzioni AI cloud che richiedono il transito dei dati attraverso infrastrutture esterne, questo approccio mantiene sia i modelli che gli strumenti in locale.

Il progetto è stato rilasciato gratuitamente su GitHub come ollama-fastmcp-wrapper sotto licenza MIT, colmando un vuoto che persisteva — una issue su GitHub (#7865) rimane al momento in cui scrivo ancora aperta.

Applicazioni pratiche

Il bridge abilita diversi casi d'uso:

  • Assistente di ricerca privato — integrazione filesystem locale e ricerca web per la sintesi di documenti
  • Agente di programmazione locale — connessioni Git e filesystem senza costi di abbonamento
  • Analista dati — integrazione SQLite/DuckDB per l'esecuzione di query locali
  • Operazioni offline — esecuzione shell e automazione su sistemi air-gapped