ESC

Escribe para buscar entre todos los artículos

Volver al archivo

Prompt Engineering está muerto. Bienvenido Context Engineering

El 68% de las empresas ya no contrata prompt engineers. La habilidad mutó: de artesano del prompt a arquitecto de contexto. El cambio de paradigma explicado con evidencia.

El puesto se evaporó

Y no lo digo yo.

Andrej Karpathy: “El LLM es la CPU. La ventana de contexto es la RAM. Tu trabajo es ser el sistema operativo.”

Tobi Lütke, CEO de Shopify: “Context engineering describe mejor la habilidad central: el arte de proveer todo el contexto para que la tarea sea resoluble por el LLM.”

Fast Company: el 68% de las empresas ya no contrata prompt engineers.

El puesto se evaporó. Pero la habilidad mutó en algo 10x más valioso.


Un prompt es una instrucción. Un contexto es un ecosistema

Phil Schmid de Hugging Face lo clavó:

La mayoría de los fallos en agentes de IA ya no son fallos del modelo. Son fallos de contexto.

El prompt estaba bien. El contexto estaba roto.


La evidencia: modelo débil + mejor contexto vence

Andrew Ng lo demostró en Sequoia Capital:

GPT-3.5 con flow engineering destruyó a GPT-4 con prompts optimizados.

Modelo débil + mejor contexto venció a modelo fuerte + mejor prompt.

Eso no es anécdota. Es un cambio de paradigma.


La línea de tiempo

AñoHito
2022Nace el Prompt Engineer
2023Chain-of-Thought, Few-Shot. Auge de la artesanía del prompt
2024RAG, Function Calling. El prompt ya no alcanza
2025Karpathy y Lütke popularizan Context Engineering. MCP se vuelve estándar
2026Era agéntica. 9.649 experimentos confirman: la estructura del contexto supera a cualquier prompt

De artesano a arquitecto

El paradigma cambió:

  • De artesano del prompt a arquitecto de contexto
  • De una instrucción a un sistema cognitivo
  • De escribir texto a diseñar flujos de información

Qué hace un Context Engineer

Un context engineer no escribe prompts más largos. Diseña el sistema completo que alimenta al modelo:

  1. Selección de contexto: qué información es relevante para esta tarea específica
  2. Estructura de datos: cómo organizar la información para que el modelo la procese eficientemente
  3. Flujo de información: qué entra primero, qué se inyecta dinámicamente, qué se recupera bajo demanda
  4. Herramientas y APIs: qué capacidades externas necesita el modelo (MCP, function calling)
  5. Memoria y estado: cómo mantener coherencia en interacciones largas
  6. Guardrails: qué límites operan sobre el contexto para mantener seguridad y calidad

El stack del Context Engineer

┌─────────────────────────────────┐
│     Agente / Orquestador        │
├─────────────────────────────────┤
│     Ensamblaje de Contexto      │
│  ┌──────┐ ┌─────┐ ┌──────────┐ │
│  │ RAG  │ │ MCP │ │ Memoria  │ │
│  └──────┘ └─────┘ └──────────┘ │
├─────────────────────────────────┤
│     Modelo de Lenguaje (LLM)    │
├─────────────────────────────────┤
│     Guardrails & Evaluación     │
└─────────────────────────────────┘

El prompt es solo una pieza. El contexto es todo el sistema.


Implicaciones para ciberseguridad

Para los profesionales de seguridad, este cambio tiene consecuencias directas:

  • Superficie de ataque expandida: cada fuente de contexto es un vector potencial de inyección
  • Prompt injection evoluciona: ahora es context injection — manipular las fuentes de datos que alimentan al modelo
  • Auditoría más compleja: no basta revisar el prompt, hay que auditar todo el pipeline de ensamblaje
  • MCP como estándar: cada servidor MCP conectado es un punto de integración que necesita evaluación de seguridad

La pregunta

El ganador en 2026 no escribe el prompt más ingenioso.

Diseña el sistema de ensamblaje de contexto más inteligente.

¿Sigues escribiendo prompts o ya estás diseñando contextos?

SV
Autor

Sebastián Vargas

CISO & Fundador de TTPSEC SpA. Más de 15 años en ciberseguridad, governance, riesgo y compliance. Escribiendo sobre seguridad de la información desde 2018.

¿Te sirve el contenido?

Recomendarme en LinkedIn
Volver al archivo