Acelerando la Productividad del Desarrollador con Herramientas Conscientes del Contexto
Una experiencia de desarrollador impulsada por MCP para ofrecer velocidad, claridad y confianza en los flujos de trabajo de Fluent Order Management.

Fluent Commerce es un líder global en gestión de pedidos distribuida, impulsando operaciones de cumplimiento complejas para minoristas y marcas empresariales. A medida que la flexibilidad y profundidad de configuración de la plataforma se expandieron, se asociaron con Orium para explorar cómo las tecnologías agénticas, específicamente el Model Context Protocol (MCP), podrían simplificar la experiencia del desarrollador, reducir la sobrecarga y capacitar a los equipos para construir con mayor eficiencia y velocidad.






El Desafío
La IA puede ser un acelerador poderoso para los equipos de ingeniería, pero no es una solución lista para usar, especialmente en dominios complejos como la gestión de pedidos empresariales. Los LLM a menudo tienen dificultades para producir consultas GraphQL precisas, incluso con un esquema disponible. Y cuando se trata de componentes específicos del proveedor como flujos de trabajo y reglas dentro de Fluent Order Management, los modelos tienden a adivinar, llenando los espacios en blanco con lo que parece plausible.
A medida que Fluent Commerce expandía la configurabilidad de la plataforma, tanto la oportunidad como el riesgo crecieron. La IA podría ayudar a razonar sobre flujos de trabajo, identificar dependencias y proponer cambios seguros, pero solo con acceso guiado y rico en contexto al sistema en lugar de los fragmentos que los desarrolladores copiaban de consolas, documentación y repositorios.
El desafío central se convirtió en ayudar a los desarrolladores a entender, modificar y validar el comportamiento del OMS con menos esfuerzo y sin sacrificar la precisión. La pregunta clave era si MCP podría proporcionar la capa de contexto faltante que convierte a la IA en un asistente significativo y confiable en lugar de un adivinador confiado.

La Estrategia
Fluent Commerce se asoció con Orium para construir un servidor MCP de desarrollo que pudiera reducir materialmente la fricción del desarrollador y aumentar la eficiencia del desarrollador a escala. En lugar de saltar a un rediseño completo del ecosistema de desarrolladores, los equipos se alinearon en una estrategia diseñada para validar el impacto y recopilar comentarios del mundo real.
Dos hipótesis clave guiaron el trabajo:
- MCP podría actuar como un puente entre los desarrolladores y el contexto del sistema, facilitando la exploración de reglas, flujos de trabajo y consultas a través del lenguaje natural.
- Integrar MCP directamente en las herramientas existentes—específicamente el Fluent CLI—aumentaría la adopción y minimizaría la sobrecarga de configuración.
La colaboración se centró en construir un servidor MCP local, integrado en el Fluent CLI y compatible con IDEs compatibles con MCP como Claude Code, Cursor y otros. Esto permitiría a los desarrolladores usar solicitudes en lenguaje natural como:
- "¿Qué hace esta regla?"
- "Genera una consulta GraphQL válida para este escenario."
- "Agrega un paso de verificación de fraude a este flujo de trabajo."
El objetivo no era reemplazar a los desarrolladores, sino colaborar con ellos: validando cambios, generando pruebas y acelerando tareas mientras se mantiene al desarrollador firmemente en control.
Nuestro trabajo inicial con Orium en el servidor MCP local nos mostró cómo podemos evolucionar la experiencia del constructor Fluent. El objetivo era optimizar las herramientas agentes que nuestros socios y clientes están usando hoy—comenzando pequeño, demostrando valor y construyendo hacia un futuro más inteligente e intuitivo.

La Solución
Con los objetivos del proyecto definidos, Fluent y Orium construyeron el servidor MCP a través de un diseño por fases y apilable. En lugar de introducir una única capacidad monolítica, los equipos crearon una capa de inteligencia local que entiende el contexto de un desarrollador y lo conecta con Fluent Order Management a través del Fluent CLI. Cada capa desbloqueó la siguiente, pasando de la generación simple de consultas a la comprensión completa de flujos de trabajo.
La base fue un motor consciente de GraphQL que entiende los esquemas y convenciones de Fluent. Los desarrolladores podían describir lo que necesitaban en lenguaje natural, y el servidor MCP generaba consultas estructuradas, las validaba contra el esquema y eliminaba gran parte del ensayo y error que típicamente ocurre en la CLI o IDE. Esto se convirtió en la columna vertebral de lectura/escritura para todo el razonamiento de nivel superior.
A esa columna vertebral, el equipo agregó una capa de reglas, permitiendo que el servidor MCP localice e interprete reglas existentes, explique el comportamiento en lenguaje simple y ayude a los desarrolladores a evolucionar o crear reglas de manera segura. También generó pruebas unitarias alineadas con las prácticas recomendadas de Fluent. Debido a que estaba fundamentado en datos reales y consultas reales, las explicaciones del sistema permanecieron precisas y contextuales.
La capa final se centró en los flujos de trabajo. El servidor MCP mapeó flujos existentes, destacó la lógica de ramificación y dependencias, y permitió a los desarrolladores ajustar o insertar pasos de manera conversacional. La creación y reutilización de reglas ocurrió automáticamente donde era necesario, y las actualizaciones de flujos de trabajo se validaron a través del mismo enfoque de pruebas alineado con prácticas recomendadas. Esto dio a los desarrolladores una vista clara y de extremo a extremo de la lógica operativa.
En todas las capas, el agente MCP siguió un modelo de colaboración consistente: analizar el estado actual, proponer un plan en lenguaje natural, confirmarlo con el desarrollador, luego ejecutar y validar los cambios. Actuando como un copiloto en lugar de una caja negra, redujo el esfuerzo mientras preservaba la propiedad y la transparencia.
El sistema permaneció intencionalmente ligero y local, dando a Fluent control estricto sobre la experiencia mientras mantenía baja la fricción de adopción de los socios. Y debido a que todo funciona a través del Fluent CLI, los socios podían experimentar de manera segura dentro de sus propios entornos sin tocar los sistemas de producción.
Entrega por Fases
El proyecto se desarrolló durante doce semanas, con cada fase construyendo directamente sobre la anterior.
Semanas 1-2
Estableció la base de GraphQL, permitiendo la generación de consultas en lenguaje natural y validación de esquemas dentro del Fluent CLI.
Semanas 3-6
Se expandió a reglas, agregando descubrimiento, explicación, modificación segura y generación automática de pruebas.
Semanas 7-10
Agregó comprensión y modificación de flujos de trabajo, dando a los desarrolladores una forma conversacional de navegar y ajustar flujos operativos complejos.
Semanas 11-12
Se enfocó en estabilización, ajuste de rendimiento y preparación del servidor MCP para uso en el mundo real.

Resultados y Próximos Pasos
Los primeros resultados de los pilotos muestran que MCP cambia significativamente cómo los desarrolladores trabajan con sistemas empresariales complejos. En un proyecto de Orium, una tarea que habilitaba lógica específica a través de un flujo de trabajo y su lógica dependiente pasó de aproximadamente diez días de desarrollador de análisis, modificación y pruebas a aproximadamente dos, una mejora de alrededor del 80% (~5x más rápido). Ganancias similares aparecieron en otros lugares, con menos cambio de contexto, iteración más rápida de reglas y flujos de trabajo, calidad de implementación más consistente y incorporación más rápida. En conjunto, estos resultados muestran que MCP le da a Fluent una base sólida para la próxima generación de IDEs agentes y herramientas de IA.
La preparación para la disponibilidad general en 2026 ya está en progreso. Al validar el servidor MCP en entornos del mundo real y construir sobre un estándar abierto, Fluent está sentando las bases para una experiencia de desarrollador más adaptativa donde los desarrolladores y las herramientas inteligentes trabajan juntos para configurar sistemas con mayor velocidad y confianza.
El futuro del desarrollo empresarial no es solo Composable. Es contextual.

