El oráculo

La importancia del contexto.

Importancia del contexto

La ingeniería de contexto representa el cambio metodológico desde el prompting heurístico inicial hacia un marco de trabajo riguroso para la interacción con modelos grandes de lenguaje. Mientras que las técnicas iniciales se basaban en la adopción de roles y estímulos emocionales, los modelos modernos priorizan los datos estructurados para reducir la ambigüedad. Se analizan las «3 Ces» (Claridad, Concreción y Contexto) como pilares esenciales para mitigar las alucinaciones.

Podría pensarse que los antiguos griegos eran afortunados por poder consultar a los oráculos qué les deparaba el futuro. Pero si lo pensamos dos veces, la cosa no debía ser tan sencilla.

Si se quería consultar al Oráculo de Delfos, por poner un ejemplo, no era simplemente llegar y besar el santo. Había que viajar semanas por senderos llenos de bandidos, dormir en posadas de dudosa higiene, sacrificar una cabra (que culpa no tenía ninguna, la pobre) y esperar pacientemente a que la Pitia terminara de inhalar los vapores de etileno que emanaban de una grieta geológica.

Solo entonces, con los ojos en blanco y la voz cavernosa, soltaba una frase ininteligible que requería un equipo de lingüistas para descifrar. Si preguntabas «¿Ganaré la guerra?», ella respondía «Un gran imperio caerá». Si perdías, era tu imperio; si ganabas, el del vecino. El éxito de la predicción no dependía de la claridad de la pitonisa, sino de la capacidad del cliente para interpretar un acertijo diseñado específicamente para que la casa nunca perdiese.

Así que el oráculo empleaba una técnica fascinante: la ambigüedad como herramienta de infalibilidad. A los llamados seres humanos nos encanta. Nos fascina la idea de una entidad superior que, con apenas una mirada a nuestras tribulaciones, sea capaz de descifrar el destino sin que nosotros tengamos que hacer el esfuerzo cognitivo de explicar qué nos pasa realmente.

Desde los augures romanos leyendo hígados de ave hasta el horóscopo del periódico que te promete «cambios en el trabajo», la historia demuestra que preferimos una mentira mística y reconfortante a una verdad que requiera aportar datos concretos y trabajar en ellos.

Y aquí estamos, en pleno siglo XXI, cambiando los vapores de azufre por chips de silicio, pero comportándonos exactamente igual que un granjero supersticioso de la antigua Grecia. Nos plantamos delante de ChatGPT o Gemini, lanzamos una frase vaga como «ayúdame con mi negocio» y esperamos que el Oráculo Binario adivine mágicamente nuestros deseos más profundos, nuestro balance contable y nuestros miedos existenciales.

Pero tengo una mala noticia: a diferencia de la Pitia, los modelos grandes de lenguaje (LLM) no entran en trance místico ni colocan los ojos en blanco mientras canalizan a Apolo. Si tu estrategia para obtener respuestas se basa en la adivinación y no en el contexto, no estás haciendo ciencia; estás jugando a la lotería semántica con una máquina que alucina más que la sacerdotisa de Apolo después de un turno doble sin mascarilla de gas.

Así que preparaos para entender cómo debemos dirigirnos a nuestro oráculo binario para obtener predicciones. En esta entrada vamos a hablar de un aspecto clave muy actual, la creciente importancia del contexto.

Breve historia de una invocación fallida

Para entender por qué el 90% de la gente usa mal la inteligencia artificial (IA), hay que mirar atrás… aunque «atrás» en este campo signifique hace apenas 18 meses, un tiempo que en años de internet equivale a varios siglos.

Al principio de esta revolución, cuando los modelos eran más zoquetes (hablamos de la era del Pleistoceno de la IA, allá por 2022), la ingeniería de instrucciones (prompt engineering, que dirían los paisanos de Albión) se convirtió en una extraña mezcla de burocracia y superstición.

Nos inventamos acrónimos rimbombantes como ROCE (Rol, Orden, Contexto, Estilo) para sentir que teníamos el control sobre la caja negra. No bastaba con pedir las cosas por favor; había que rellenar un formulario mental digno de la administración pública: definir el rol del interlocutor («eres un experto mundial en física cuántica y ganadero a tiempo parcial»), dar la orden y el objetivo con precisión quirúrgica, aportar el contexto (las famosas 5 Ws, esa regla de oro del periodismo, Who, What, Where, When y Why, que nos obliga a definir quién, qué, dónde, cuándo y por qué, para no dejar cabos sueltos que la IA pueda usar para estrangularnos) y definir el estilo de la respuesta que deseábamos.

Pero lo más delirante era el componente secreto, ese ingrediente mágico que añadíamos susurrando: el soborno emocional. Sí, amigos, la desesperación nos llevó a incluir, en las guías técnicas, instrucciones del tipo: «Esfuérzate, es muy importante para mí, mi carrera depende de esto» o, mi favorita absoluta, «Te pagaré 1000 dólares si lo haces bien».

Tratábamos al algoritmo con una mezcla de ingeniería (iterando, modularizando preguntas complejas, revisando la coherencia) y chantaje afectivo, convencidos de que, si le dábamos pena a la GPU o le prometíamos dinero del Monopoly, la red neuronal se esforzaría más por pura codicia digital. Y lo peor de todo, lo que alimenta nuestra paranoia, es que por aquel entonces… a veces funcionaba.

Pero la tecnología avanza rápido, y lo que ayer era ley, hoy es reliquia. Los modelos actuales, entrenados con cantidades obscenas de datos y refinados con feedback humano (el aprendizaje por refuerzo humano, RLHF), ya no necesitan que les digas que se pongan el disfraz de Einstein para sumar dos más dos. Hoy en día, el rol ha perdido el trono en favor del contexto. Decirle a la IA «actúa como un experto en marketing» es irrelevante y redundante si no le das los datos de tu producto, tu público y tus objetivos.

Es como contratar al mejor arquitecto del mundo, sentarlo en una mesa vacía y decirle «actúa como un arquitecto y constrúyeme algo bonito», sin decirle si quieres un puente colgante, un rascacielos brutalista o una caseta para el perro.

La muerte de la adivinación

Cuando se trata de respuestas inútiles o de alucinaciones de la máquina, hay expertos de la talla de Andrew Ng y equipos de investigación, como lo de Google e IBM, que han llegado a una conclusión empírica tras miles de horas de pruebas, una conclusión que duele al ego del usuario promedio: el problema no es la máquina, eres tú (y tu absoluta falta de especificidad).

La nueva santísima trinidad del prompting (perdonad por el palabro) no es mágica, es metodológica e insoportablemente racional: claridad, concreción y contexto.

Pero ¿qué significan realmente estos términos fuera de un PowerPoint corporativo y aburrido?, preguntaréis intrigados.

Claridad es la ausencia total de ambigüedad. Si quieres una lista numerada, pide una «lista numerada», no digas «dame algunas ideas sueltas». La IA no entiende de indirectas, ni tiene la capacidad de leerte la mente a través de la webcam (todavía). Aunque pueda pensarse otra cosa, la “A” de “IA” significa “artificial”, no “adivinatoria”.

Por otra parte, la concreción es la diferencia abismal entre pedir algo «breve» (que para un escritor victoriano podrían ser 50 páginas de descripción de paisajes) y pedir «un texto de exactamente 150 palabras». Los números son amigos, los adjetivos vagos y subjetivos son enemigos mortales de la precisión.

Y, en tercer lugar, el contexto es el nuevo rey de la fiesta, el mapa del tesoro. Es el «quién», «dónde», «para qué» y «con qué presupuesto». Sin contexto, una petición es solo ruido estático en el vacío digital.

Podemos entender la utilidad de estas 3 Cs con un ejemplo de la vida cotidiana. Si le dices a un taxista «llévame a un sitio divertido», puedes acabar en una convención de payasos, en un parque de atracciones abandonado o en un club de lucha clandestino, dependiendo del criterio (y los antecedentes penales) del conductor. Si le dices «llévame al restaurante italiano más barato del centro que tenga opciones sin gluten y esté abierto ahora», el margen de error desaparece casi por completo.

La regla de oro actual es simple y brutal: cuanta más información le damos al modelo, menos tiene que inventar. Las famosas «alucinaciones» de la IA a menudo no son fallos del sistema o delirios de grandeza de la máquina, sino intentos desesperados del modelo por rellenar los huecos gigantescos de una petición vaga. Si no le das el contexto, la IA se lo inventa para complacerte, igual que la Pitia se inventaba que un imperio caería para no pillarse los dedos y cobrar la cabra.

De la magia a la ingeniería: la importancia del contexto

Si logramos superar la tentación infantil de usar la IA como una bola de cristal, descubriremos que existen herramientas cognitivas reales para afinar nuestra puntería, técnicas probadas que convierten la adivinación en ingeniería de precisión.

La primera y más efectiva es dejar de describir de forma abstracta lo que queremos, algo difícil incluso entre humanos que hablan el mismo idioma, y empezar a enseñar. Mediante el few-shot prompting, en lugar de pedir «un tono irónico y desenfadado», le damos tres ejemplos de nuestros mejores textos sarcásticos anteriores y le decimos: «imita este patrón exacto». Un ejemplo bien puesto vale más que mil adjetivos calificativos que la máquina puede malinterpretar.

Pero, a veces, el problema no es el estilo, sino la pura lógica deductiva. Aquí entra en juego la cadena de pensamiento (chain of thought). Los modelos, al igual que un estudiante nervioso en un examen oral que quiere acabar rápido, tienden a soltar la primera respuesta probabilística que calculan.

Si les obligamos a pensar «paso a paso» o a desglosar su razonamiento punto por punto antes de concluir, la precisión se dispara (aunque los modelos más nuevos ya hacen esto en su subconsciente digital, procesando internamente antes de escupir el token final). Es la base de los LLM razonadores y, en la práctica, algo tan sencillo como pedirle que piense paso a paso la respuesta que le pedimos.

Y para cuando ni siquiera nosotros sabemos qué camino tomar, podemos recurrir al árbol de pensamientos (tree of thoughts), una técnica avanzada que pide a la IA que explore múltiples ramas de posibilidades, simule escenarios y compare los resultados antes de decidir, marcando la diferencia entre una respuesta mediocre de galleta de la fortuna y una estrategia brillante.

El copiloto definitivo

Y si todo esto os supera, si os sentís abrumados por tanta técnica y seguís obteniendo basura genérica, podéis recurrir a la técnica del metaprompting, que es básicamente rendirse con estilo. Trágate el orgullo (y esa sensación de superioridad biológica) y pídele a la IA que escriba el prompt por ti. Dile: «Quiero conseguir X, pero no sé cómo pedírtelo. Hazme las preguntas que necesitas saber para darme la mejor respuesta posible».

De repente, la dinámica cambia radicalmente. Ya no estáis ante un oráculo críptico al que hay que descifrar con miedo, sino ante un copiloto servicial que te entrevista para sacarte la información que, admitámoslo, os daba pereza estructurar por vuestra cuenta. Y eso, queridos amigos, es mucho más útil, barato y menos sangriento que destripar cabras en el monte Parnaso.

Nos vamos…

Así que ya lo sabéis: la magia no existe, solo existe la estadística bien alimentada y la probabilidad aplicada.

Hemos visto como la ingeniería de instrucciones ha mutado: de la simplicidad de los roles predefinidos a una compleja arquitectura de datos donde la calidad de la respuesta depende directamente de la riqueza del entorno. El resultado es que la estructura original ha cedido su protagonismo al contexto, que se erige hoy como el factor determinante del éxito..

Hemos visto también que, para obtener respuestas inteligentes, primero hay que saber hacer preguntas inteligentes, dejando atrás la ambigüedad de los oráculos para abrazar la precisión quirúrgica de los ingenieros.

Esta necesidad de rigor alcanza su máxima expresión al enfrentarnos a la complejidad de las aplicaciones actuales. Ya no interactuamos únicamente con modelos aislados, sino con sistemas agénticos y arquitecturas multiagénticas inteligentes. En estos entornos de autonomía, donde distintos agentes colaboran, razonan y ejecutan tareas en cadena, la creciente importancia del contexto ha hecho que haya dejado de ser un simple marco de referencia para convertirse en el sistema operativo del pensamiento sintético.

Ya no se trata de lanzar comandos al vacío, sino de diseñar ecosistemas de información que permitan a las aplicaciones de inteligencia artificial navegar con autonomía y coherencia. Estamos ante el nacimiento de una nueva gramática de interacción que trasciende el prompt tradicional: hemos entrado de lleno en la era de la ingeniería de contexto. Pero esa es otra historia…

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información básica sobre protección de datos Ver más

  • Responsable: Manuel Molina Arias.
  • Finalidad:  Moderar los comentarios.
  • Legitimación:  Por consentimiento del interesado.
  • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio. El Titular ha contratado los servicios de alojamiento web a Aleph que actúa como encargado de tratamiento.
  • Derechos: Acceder, rectificar y suprimir los datos.
  • Información Adicional: Puede consultar la información detallada en la Política de Privacidad.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Antes de aceptar puedes ver Configurar cookies para realizar un consentimiento selectivo.   
Privacidad