Context Engineering

Raúl Vázquez

En los últimos meses la comunidad de IA no para de hablar de un nuevo término llamado Context Engineering, esto es clave para construir agentes robustos y en este blog os lo explicamos. 

¿Por qué hablamos ahora de Context Engineering?

La «ventana de contexto» de los LLMs ha crecido de forma exponencial, pasando de procesar unas pocas páginas a poder analizar libros enteros con modelos como Gemini 1.5. Sin embargo, llenar este espacio con información sin filtrar es contraproducente.

Nos enfrentamos al problema del «Context Rot» (putrefacción del contexto): a más información, el rendimiento del modelo puede degradarse. Esto provoca fallos como la distracción (el modelo pierde el foco), la confusión (usa datos irrelevantes), la intoxicación (repite errores) o el choque (no puede razonar con datos contradictorios). Por tanto, la calidad del contexto es más importante que la cantidad.

Del «Prompt Engineering» al «Context Engineering»

El Prompt Engineering se centra en formular la pregunta perfecta. El Context Engineering, en cambio, diseña todo el ecosistema de información que rodea a esa pregunta. No son excluyentes, sino dos caras de la misma moneda: el Context Engineering prepara el «campo de batalla» (datos, historial, herramientas) mientras que el Prompt Engineering afila la «lanza» (la instrucción concreta). Un agente de IA necesita ambos para ser eficaz.

Técnicas clave de Context Engineering

El objetivo es darle al LLM solo la información que necesita. Algunas técnicas son:

  • RAG (Retrieval-Augmented Generation): Busca y entrega solo los datos relevantes de una base de conocimiento para responder a una pregunta específica.
  • Tool Loadout (Selección de herramientas): Proporciona al agente únicamente las herramientas (APIs, funciones) necesarias para la tarea actual, evitando confusiones.
  • Context Quarantine (Contexto en cuarentena): Aísla las tareas en hilos separados con su propio contexto para que no interfieran entre sí.
  • Context Pruning (Poda de contexto): Elimina la información irrelevante o superflua del contexto antes de pasársela al LLM. 
  • Context Summarization (Resumen de contexto): Condensa grandes bloques de información en resúmenes más cortos y densos para optimizar el espacio. Importante en un chatbot, imagina una conversación muy larga… acabaría llenando la ventana de contexto. 
  • Context Offloading (Descarga de contexto): Utiliza una memoria externa (como un bloc de notas) para almacenar y recuperar información, liberando el contexto principal.

Conclusión

Con ventanas de contexto cada vez más grandes, el desafío no es la cantidad de información, sino su calidad y estructura. El Context Engineering es la disciplina que nos permite construir aplicaciones y agentes de IA verdaderamente inteligentes y autónomos.