Por qué la IA obliga a repensar la gestión del cambio
Los enfoques tradicionales de gestión del cambio no funcionaban antes. La IA simplemente hace que sea imposible ignorar las brechas.

Cuando empecé a crear agentes, seguí los ejemplos. Como la mayoría de los desarrolladores, gestioné el estado añadiendo todo a una única transcripción creciente de messages[]: indicaciones del usuario, respuestas del modelo, solicitudes de llamada a la herramienta y resultados de la herramienta. Funcionó, al principio.
Pero a medida que la lógica de mi agente se volvía más compleja, empezaron a aparecer grietas. El modelo repetía las llamadas a herramientas que ya había ejecutado. Las plantillas de indicaciones se llenaban de contexto irrelevante. Estaba escribiendo funciones para analizar la transcripción de messages[] solo para extraer el resultado correcto de la llamada a la herramienta al crear indicaciones. Empezó a parecer extraño. Tenía que haber una mejor manera.
El problema de fondo no eran las herramientas en sí, sino mi suposición de que la transcripción era el estado.
LangGraph me brindó una nueva perspectiva. En lugar de tratar la transcripción como un cajón de sastre para todo lo que el agente podría necesitar "recordar", podía modelar el estado estructurado explícitamente: entradas específicas para cada nodo y campos aislados para los resultados de las herramientas, el historial de uso y otros datos reutilizables. Incluso ciertas respuestas del asistente, como el razonamiento interno o las estrategias elegidas, merecen sus propios campos de estado si se van a reutilizar más adelante. Este estado reside en el objeto de hilo LangGraph y persiste durante las ejecuciones, lo que me permite introducir indicaciones más breves y específicas en el modelo, con el contexto exacto que necesita, sin necesidad de arqueología de transcripciones.
Esta publicación explica este cambio y cómo la adopción de un estado estructurado hace que los agentes sean más robustos, fiables y estén listos para su uso real.
La mayoría de las demostraciones convierten la transcripción en una base de datos accidental. En su lugar, convierta los datos pesados en un estado estructurado y mantenga la transcripción ligera:
// Antes graphState = { messages[] //una combinación de indicaciones del usuario, respuestas del asistente, solicitudes de llamadas a la herramienta, resultados de llamadas a la herramienta }
// Después graphState = { messages[], //solo flujo de chat: indicaciones del usuario y respuestas del asistente que vale la pena mostrar al usuario toolResults, userPreferences, …otros datos reutilizables }
La transcripción messages[] se mantiene legible y breve; la verdadera "memoria de trabajo" del agente reside en campos dedicados dentro del estado del grafo, donde está estructurada, es inspeccionable y fácil de reutilizar. El tipo de dato de estos campos dedicados depende totalmente de usted: por ejemplo, una cadena, un booleano, un número o un objeto, lo que mejor se adapte a sus necesidades.
La mayoría de los tutoriales configuran un LLM con la llamada a herramientas habilitada y luego añaden tanto la solicitud de llamada a la herramienta como su resultado JSON directamente al registro messages[]. Ahora imaginemos que un usuario pregunta: "¿Qué tiempo hace este fin de semana?" y sigue chateando.
Esto implica indicaciones más largas, más tokens y un razonamiento frágil.
Eleva los datos al estado:
graphState["searchResults"] = results_json
…luego inyecta solo lo que cada nodo necesita:
Aquí están los resultados de la búsqueda: {{searchResults}}
Ahora, cada mensaje de usuario puede reutilizar o actualizar graphState.searchResults sin sobrecargar la transcripción, y el LLM siempre ve los datos correctos en un mensaje limpio.
LangGraph lo hace posible, pero no lo fuerza. Dar el salto depende de ti. La misma lógica se aplica a las estadísticas reutilizables del asistente: resúmenes, acciones recomendadas, conclusiones analizadas. Almacénalas en el estado, no en la matriz messages[].
Usar messages[] para todo funciona, por un tiempo. Pero a medida que los agentes crecen, este patrón se vuelve frágil, opaco y costoso.
Trate la transcripción como una transcripción, no como un cerebro. El estado estructurado preserva lo que importa (resultados de la herramienta, razonamiento del asistente, decisiones), aportando claridad, determinismo y fiabilidad en el mundo real.
Los enfoques tradicionales de gestión del cambio no funcionaban antes. La IA simplemente hace que sea imposible ignorar las brechas.
Cómo las empresas inteligentes están evolucionando con modelos de entrega impulsados por agentes y qué se necesita para liderar en la nueva era de los servicios inteligentes.