¿Qué es el Model Context Protocol (MCP) y por qué es el futuro de los LLMs?

Raúl Vázquez

Cada semana tenemos novedades en el campo de IA, hoy os hablaremos sobre el Model Context Protocol (MCP), que és, para qué sirve y qué oportunidad representa en el desarrollo de IA (spoiler: es un game changer para los LLMs y para quien quiera construir productos sobre ellos). 

¿Por qué necesitamos un MCP?

Los modelos de lenguaje (LLMs) por sí solos… no hacen nada espectacular. Son como ese compañero de equipo que sabe mucho, pero si no le das acceso a herramientas no puede realmente aportar un valor significativo. El LLM predicirá perfectamente la siguiente palabra o texto, nada más. 

Para que un LLM haga cosas realmente útiles o tareas concretas cómo envíar mails, interpretar calendarios para convocar reuniones o consultar APIs necesita conectarse a herramientas externas. Hasta ahora, esto se hacía con integraciones ad hoc poco escalables.

El problema de las integraciones ad hoc

Si quieres montar un asistente que busque en internet, resuma tus emails y apunte las tareas en Notion, tienes que conectar el LLM a cada herramienta, cada una “hablando” su propio idioma (API diferente, parámetros distintos…). Cuando una API cambia, todo se rompe. Como decíamos, poco escalable.

Los LLMs + herramientas funcionan… pero es un caos. Aquí es dónde entra un MCP.

¿Qué es el MCP?

El Model Context Protocol (MCP) es, en pocas palabras, un estándar. Una especie de “lenguaje común” entre los LLMs y las herramientas/servicios externos. 

Piénsalo como el USB-C de la IA: así como el USB-C permite conectar cualquier dispositivo con un solo tipo de cable, el MCP permite conectar los modelos de IA a diferentes fuentes de datos y herramientas de forma sencilla y universal.

  • MCP crea una capa intermedia: los LLMs ya no tienen que aprender el idioma de cada API, sino que todas hablan MCP.
  • Los servicios (bases de datos, CRMs, buscadores, etc.) exponen un MCP Server. Los LLMs, a través de un MCP Client, acceden a esos servicios de forma unificada y sencilla.
  • Si eres proveedor de un servicio y quieres que los LLMs trabajen con tus datos/herramientas, solo tienes que implementar el estándar MCP.

Ejemplo de flujo:

¿Y qué pinta tiene cada pieza?

  • LLM (cliente MCP): Es el modelo de lenguaje que pide hacer acciones (por ejemplo, crear una tarea en Notion).
  • MCP: Es el lenguaje estándar para que LLMs y servicios se entiendan.
  • MCP Server: Es la parte que debe implementar cada aplicación o herramienta externa. Hace de traductor entre el MCP y su propia API interna. Si Notion, Slack o tu CRM favorito exponen un MCP Server, cualquier LLM podrá interactuar con ellos.

Conclusión

Esto sin duda permitirá sacar más partido a los modelos de IA generativa, pudiendo crear aplicaciones más conectadas y escalables que sean capaces de llevar a cabo tareas concretas. Realmente es el siguiente paso lógico para que los LLMs sean realmente útiles.

https://modelcontextprotocol.io/introduction