Squaads — Cliente Canarias
MCP Server para LLM empresarial
Capa middleware segura entre Gemini y sistemas internos del cliente
Rol
Desarrolladora Full Stack
Duración
4 meses
El reto
El cliente necesitaba que un LLM (Gemini) pudiera interactuar de forma segura con sus sistemas internos — base de datos educativa, APIs REST existentes y repositorio de contenidos — sin exponer datos sensibles ni dar acceso directo al modelo sobre la infraestructura.
La solución
Diseñé un servidor MCP (Model Context Protocol) como capa intermedia que expone tools tipados al LLM. El servidor gestiona autenticación con tokens encriptados, valida permisos por scope, y orquesta las llamadas a las APIs internas. Desplegado en Docker sobre AWS EC2 con logs estructurados y monitorización.
Features clave
Tools tipados MCP
Funciones expuestas al LLM con schemas JSON validados, descripciones claras y control de parámetros.
Autenticación por token
Tokens encriptados con refresh automático. Cada sesión MIA tiene su propio contexto de permisos.
Gateway a APIs internas
Proxy inteligente que traduce tool_calls del LLM a peticiones REST contra el backend del cliente.
Observabilidad
Logs estructurados, trazas de cada tool_call y métricas de latencia para debug y optimización.
Impacto
12+
Tools MCP
<200ms
Latencia media
100%
Uptime en producción