El Protocolo de Contexto de Modelos supera los 97 millones de descargas y pasa a la gobernanza de la Linux Foundation
El estándar abierto de Anthropic para conectar agentes de IA con herramientas externas se convierte en infraestructura de industria con el respaldo de OpenAI, Google, Microsoft y AWS.

De experimento interno a estándar de industria en dieciséis meses
En noviembre de 2024, Anthropic publicó en abierto el Protocolo de Contexto de Modelos —conocido por sus siglas en inglés, MCP— como una propuesta técnica para resolver un problema concreto: los agentes de inteligencia artificial no tenían una forma estandarizada de conectarse a herramientas externas, bases de datos ni servicios empresariales. Cada integración requería código a medida para cada proveedor de modelos, lo que multiplicaba el trabajo y creaba dependencias difíciles de mantener.
En poco más de un año, MCP ha alcanzado 97 millones de descargas mensuales de sus SDK y cuenta con más de 10.000 servidores activos, con soporte nativo en plataformas como ChatGPT, Claude, Cursor, Gemini, Microsoft Copilot y Visual Studio Code. Modelcontextprotocol Para dimensionar esa velocidad de adopción: Kubernetes, el estándar de orquestación de contenedores que hoy es infraestructura crítica global, tardó casi cuatro años en alcanzar una densidad de despliegue comparable.
Qué es MCP y por qué importa a quien no escribe código
Antes de MCP, conectar un agente de IA a, por ejemplo, la base de datos de clientes de una empresa o a una herramienta de gestión de proyectos implicaba escribir un conector específico para cada combinación de modelo y sistema. Con cinco modelos de IA distintos y diez sistemas internos, el resultado era cincuenta integraciones independientes, cada una con su propia lógica, sus propios fallos y su propio coste de mantenimiento. MCP colapsa ese problema definiendo un protocolo único y neutral entre proveedores que tanto los clientes (los modelos de IA) como las herramientas pueden hablar. GitHub
El protocolo estructura las capacidades en tres bloques: herramientas, que son acciones que el agente puede ejecutar como enviar un mensaje o modificar un fichero; recursos, que son datos que el agente puede leer como documentos o filas de una base de datos; y plantillas de prompts reutilizables. Esta arquitectura permite que un solo servidor MCP exponga la superficie completa de una aplicación compleja de una forma que cualquier cliente compatible entiende sin configuración adicional.
MCP funciona de forma similar a como lo hace USB-C en el hardware: en lugar de un cable distinto para cada dispositivo, un único estándar que todos los fabricantes respetan. Antes de USB-C, cada teléfono, portátil y cámara tenía su propio conector propietario. Antes de MCP, cada modelo de IA necesitaba su propia integración con cada herramienta externa. El paralelismo no es casual; los propios ingenieros de Anthropic utilizan esta analogía para explicar la utilidad del protocolo.
La donación a la Linux Foundation: por qué OpenAI adoptó el estándar de su competidor
En diciembre de 2025, Anthropic dio un paso que consolidó la posición de MCP como estándar neutral: donó el protocolo a la Agentic AI Foundation, un fondo gestionado por la Linux Foundation. La fundación fue co-creada por Anthropic, Block y OpenAI, con el respaldo de Google, Microsoft, Amazon Web Services, Cloudflare y Bloomberg. Anthropic Que tres empresas en competencia directa —y rivales en uno de los mercados más disputados de la tecnología— respalden conjuntamente el mismo estándar es una señal poco habitual en el sector.
El hecho de que OpenAI, Microsoft y Google, tres compañías enfrentadas en una de las batallas competitivas más costosas de la historia tecnológica, hayan adoptado un estándar creado por su competidor directo, dice algo sobre la utilidad práctica del protocolo. Ainetizens La gobernanza bajo la Linux Foundation, la misma organización que administra proyectos como el kernel de Linux, Kubernetes, PyTorch o Node.js, ofrece garantías de neutralidad que ningún proveedor individual podría dar por sí solo.
El reto pendiente: seguridad a la altura de la adopción
Entre enero y febrero de 2026, investigadores de seguridad registraron más de treinta vulnerabilidades en implementaciones de MCP, que iban desde fallos de traversal de rutas hasta un fallo de ejecución remota de código con una puntuación de gravedad de 9,6 sobre 10 en la escala CVSS. byteiota Un análisis independiente encontró vulnerabilidades de inyección de comandos en más del 40 % de las implementaciones evaluadas.
Es el patrón habitual en infraestructura que escala más rápido de lo que se audita: los problemas de seguridad se descubren cuando el protocolo ya es demasiado crítico para desconectarlo, y no antes. Anthropic ha publicado borradores de una especificación complementaria para escenarios multiagente, y la hoja de ruta del protocolo para 2026 incluye mejoras en el soporte de datos en tiempo real y mecanismos de coordinación entre agentes. AI Unfiltered El trabajo pendiente es considerable, pero la adopción ya está hecha: con 97 millones de descargas mensuales y el respaldo de toda la industria, MCP ha dejado de ser experimental. Es, a todos los efectos, la fontanería de la IA agéntica.
Fuentes
En la elaboración de este artículo se ha utilizado inteligencia artificial como apoyo en la investigación y redacción. El contenido ha sido revisado editorialmente antes de su publicación.