Prompt Engineering está muerto. Bienvenido Context Engineering
El 68% de las empresas ya no contrata prompt engineers. La habilidad mutó: de artesano del prompt a arquitecto de contexto. El cambio de paradigma explicado con evidencia.
El puesto se evaporó
Y no lo digo yo.
Andrej Karpathy: “El LLM es la CPU. La ventana de contexto es la RAM. Tu trabajo es ser el sistema operativo.”
Tobi Lütke, CEO de Shopify: “Context engineering describe mejor la habilidad central: el arte de proveer todo el contexto para que la tarea sea resoluble por el LLM.”
Fast Company: el 68% de las empresas ya no contrata prompt engineers.
El puesto se evaporó. Pero la habilidad mutó en algo 10x más valioso.
Un prompt es una instrucción. Un contexto es un ecosistema
Phil Schmid de Hugging Face lo clavó:
La mayoría de los fallos en agentes de IA ya no son fallos del modelo. Son fallos de contexto.
El prompt estaba bien. El contexto estaba roto.
La evidencia: modelo débil + mejor contexto vence
Andrew Ng lo demostró en Sequoia Capital:
GPT-3.5 con flow engineering destruyó a GPT-4 con prompts optimizados.
Modelo débil + mejor contexto venció a modelo fuerte + mejor prompt.
Eso no es anécdota. Es un cambio de paradigma.
La línea de tiempo
| Año | Hito |
|---|---|
| 2022 | Nace el Prompt Engineer |
| 2023 | Chain-of-Thought, Few-Shot. Auge de la artesanía del prompt |
| 2024 | RAG, Function Calling. El prompt ya no alcanza |
| 2025 | Karpathy y Lütke popularizan Context Engineering. MCP se vuelve estándar |
| 2026 | Era agéntica. 9.649 experimentos confirman: la estructura del contexto supera a cualquier prompt |
De artesano a arquitecto
El paradigma cambió:
- De artesano del prompt a arquitecto de contexto
- De una instrucción a un sistema cognitivo
- De escribir texto a diseñar flujos de información
Qué hace un Context Engineer
Un context engineer no escribe prompts más largos. Diseña el sistema completo que alimenta al modelo:
- Selección de contexto: qué información es relevante para esta tarea específica
- Estructura de datos: cómo organizar la información para que el modelo la procese eficientemente
- Flujo de información: qué entra primero, qué se inyecta dinámicamente, qué se recupera bajo demanda
- Herramientas y APIs: qué capacidades externas necesita el modelo (MCP, function calling)
- Memoria y estado: cómo mantener coherencia en interacciones largas
- Guardrails: qué límites operan sobre el contexto para mantener seguridad y calidad
El stack del Context Engineer
┌─────────────────────────────────┐
│ Agente / Orquestador │
├─────────────────────────────────┤
│ Ensamblaje de Contexto │
│ ┌──────┐ ┌─────┐ ┌──────────┐ │
│ │ RAG │ │ MCP │ │ Memoria │ │
│ └──────┘ └─────┘ └──────────┘ │
├─────────────────────────────────┤
│ Modelo de Lenguaje (LLM) │
├─────────────────────────────────┤
│ Guardrails & Evaluación │
└─────────────────────────────────┘
El prompt es solo una pieza. El contexto es todo el sistema.
Implicaciones para ciberseguridad
Para los profesionales de seguridad, este cambio tiene consecuencias directas:
- Superficie de ataque expandida: cada fuente de contexto es un vector potencial de inyección
- Prompt injection evoluciona: ahora es context injection — manipular las fuentes de datos que alimentan al modelo
- Auditoría más compleja: no basta revisar el prompt, hay que auditar todo el pipeline de ensamblaje
- MCP como estándar: cada servidor MCP conectado es un punto de integración que necesita evaluación de seguridad
La pregunta
El ganador en 2026 no escribe el prompt más ingenioso.
Diseña el sistema de ensamblaje de contexto más inteligente.
¿Sigues escribiendo prompts o ya estás diseñando contextos?