Qué es el Model Context Protocol (MCP)
Vivimos un momento de transformación en el mundo de la inteligencia artificial. Los modelos de lenguaje grandes (Large Language Models o LLM) están dejando de ser simples generadores de texto para convertirse en verdaderos asistentes inteligentes, capaces de interactuar con nuestro entorno digital.
Pero, ¿cómo pueden estos modelos saber qué herramientas tienen disponibles? ¿Cómo podrían usar nuestro correo, calendario o entorno de desarrollo sin comprometer la seguridad?
Aquí entra en juego el Model Context Protocol (MCP).
¿Qué es el MCP?
El MCP es un protocolo abierto, desarrollado por Anthropic, que permite describirle a un modelo de lenguaje qué herramientas externas puede utilizar —como Gmail, Slack, VS Code, Figma, Stripe, entre otras— y qué acciones puede realizar con cada una.
Funciona como un “manual de usuario” estructurado en formato JSON, que el modelo puede entender para operar como un agente útil, seguro y controlado.
¿Qué es un LLM?
Un modelo de lenguaje grande (LLM) está entrenado con enormes volúmenes de texto y puede realizar tareas como responder preguntas, resumir información, traducir o generar código. Sin embargo, por sí solo no tiene acceso a herramientas externas ni puede actuar en el mundo real.
El MCP le otorga esa capacidad de manera controlada y auditable.
¿Dónde se está utilizando?
Visual Studio Code
Ya comenzó a integrar MCP para asistentes de inteligencia artificial que pueden:
- Crear, editar y guardar archivos.
- Instalar extensiones.
- Ejecutar código.
- Sugerir mejoras contextuales en proyectos.
Claude (Anthropic)
Claude ahora incluye un directorio de conectores en sus versiones web y de escritorio, permitiendo conectar herramientas como Google Drive, Slack, Canva, Notion, Stripe, Figma y Prisma. Estos conectores, basados en MCP, permiten automatizar tareas como resumir documentos, enviar correos o generar diseños desde la misma conversación con IA.
Figma (modo Dev)
Figma lanzó un servidor MCP en beta para usuarios con licencia Dev o Full seat. Esto permite a asistentes como Copilot o Claude acceder directamente a datos de diseño como colores, textos o medidas, facilitando la conversión de diseños en código con alta precisión.
Ejemplos de uso
Un asistente basado en MCP podría:
- Leer tu bandeja de entrada, identificar un correo con una fecha y programar una reunión en tu agenda.
- Resumir los últimos mensajes de un canal de Slack y generar tareas en Asana.
- Analizar tu CRM y preparar un reporte semanal de ventas.
- Abrir Visual Studio Code, detectar errores en el código y sugerir mejoras paso a paso.
¿Por qué es importante?
El MCP permite construir agentes modulares, seguros y conectados, sin necesidad de entrenar modelos desde cero ni darles acceso irrestricto a los datos. Este protocolo actúa como un intermediario que guía al modelo con instrucciones precisas y audibles.
Conclusión
Así como el protocolo HTTP conectó las páginas web y dio forma a la web moderna, el MCP podría convertirse en el estándar para integrar modelos de IA con el ecosistema digital. Su carácter abierto y modular lo posiciona como una herramienta clave para el futuro de los agentes inteligentes.
Glosario técnico
- LLM: modelo de lenguaje grande entrenado con textos para realizar tareas como generación, resumen o traducción.
- MCP: protocolo que describe a un modelo de IA qué herramientas puede usar y cómo interactuar con ellas.
- JSON: formato de texto para representar datos estructurados de manera comprensible tanto para humanos como para máquinas.
- Agente: un asistente inteligente que puede tomar acciones en nombre del usuario.
- IDE: entorno de desarrollo integrado, como Visual Studio Code, usado para programar.
- Pull request: propuesta de cambios en el código en plataformas como GitHub.
Fuentes:
-
Model Context Protocol (Anthropic)
[https://github.com/modelcontextprotocol][]
Repositorio oficial del protocolo MCP desarrollado por Anthropic. -
Presentation of the model context protocol
[https://www.anthropic.com/news/model-context-protocol][]
presentación sobre el protocolo.