
Prompt 101: La interfaz con las máquinas
El “prompt” es la nueva unidad de comunicación con las aplicaciones de Inteligencia Artificial. Dominar su construcción marca la diferencia entre obtener respuestas genéricas y construir soluciones precisas y replicables.
En el mundo corporativo existe un dialecto peculiar, una especie de jerga que combina anglicismos, acrónimos y expresiones huecas. En el podcast Hotel Jorge Juan, la escritora Beatriz Serrano lo bautizó como “hablar oficina”: esa forma de comunicación que convierte cualquier frase en una secuencia de términos importados, desde brainstorm hasta deadline, pasando por stakeholder, kick-off, slot o KPI. Hoy, a esa lista infame se suma una nueva palabra que, nos guste o no, repetiremos sin descanso en los próximos años: Prompt.
En el contexto de los modelos de lenguaje (LLM) como chatGPT, Gemini o Anthropic, un prompt es la instrucción que le damos a la máquina para que ejecute una tarea. No es simplemente “hacer una pregunta”: implica redactar de manera clara, estructurada y contextualizada lo que esperamos que haga. Al igual que en la comunicación humana, los matices importan; en la interacción con una IA, estos matices determinan la calidad y utilidad del resultado.
La lógica es sencilla pero profunda: cuanto más precisa y bien organizada sea la información que damos, más coherente, fiable y reproducible será la respuesta. Esto no significa escribir instrucciones largas de forma arbitraria, sino diseñar un marco de referencia que le permita al modelo trabajar con el contexto suficiente, el tono adecuado y un orden de procesamiento que minimice errores.
Un ejemplo ayuda a entenderlo. Imaginemos a un perfil administrativo en un despacho que recibe a diario imágenes de tickets de gastos para validarlos y archivarlos. Si simplemente pedimos al modelo “procesa esto”, tenderá a interpretar libremente los datos, con riesgo de errores o campos incompletos. En cambio, si especificamos que se trata de comprobantes de gasto, describimos la estructura fija que deben seguir los registros (fecha, importe, concepto, proveedor, método de pago), advertimos que las imágenes pueden contener texto poco legible o estar parcialmente cortadas, indicamos que primero debe extraer los datos con precisión y luego clasificarlos según la política interna de la empresa, y le autorizamos a responder “información insuficiente” cuando no pueda completar un campo con certeza, el análisis se vuelve más fiable. El resultado deja de ser una conjetura para convertirse en un registro trazable, con evidencias claras y un formato estructurado listo para integrarse en el sistema de archivo.
Este ejemplo ilustra uno de los principios básicos del prompt engineering: la construcción iterativa. Rara vez un primer intento produce la mejor respuesta posible. Ajustar el enunciado, reorganizar la información, introducir ejemplos de referencia o añadir instrucciones sobre qué hacer cuando falten datos son pasos que incrementan el rendimiento. El proceso se parece más a un trabajo editorial que a una simple orden: se define un propósito, se estructura el contenido y se revisa hasta lograr que el modelo entienda y ejecute la tarea de forma estable.
Otra buena práctica es aportar contexto fijo en lo que se denomina system prompt: información que no cambiará entre ejecuciones y que el modelo debe tener siempre presente. En el caso anterior, sería la plantilla oficial de registro de gastos y las reglas de validación de la empresa. Con esto, el modelo deja de “deducir” la estructura y puede concentrarse en la parte variable de cada entrada.
El orden en que se le pide al modelo que procese la información también es crucial. Si una tarea implica interpretar elementos ambiguos, conviene guiarle para que empiece por lo más estructurado —por ejemplo, los campos impresos de un formulario— y solo después aborde lo más incierto, como anotaciones manuscritas. Esta secuencia reduce el riesgo de que se confunda o rellene huecos de forma imaginativa.
Los ejemplos de referencia (few-shot examples, en oficina) son otro recurso clave. Mostrarle al modelo casos reales con sus respuestas correctas permite que reconozca patrones y los reproduzca. Si en esos ejemplos incluimos casos límite o problemáticos, el sistema aprenderá a gestionarlos de forma consistente.
Por último, definir el formato de salida evita pérdidas de tiempo posteriores. Si la información debe ir a una base de datos, pedir directamente que la respuesta esté en JSON o XML no solo ahorra trabajo de transformación, sino que reduce errores de interpretación humana.
En definitiva, un prompt eficaz es el resultado de alinear propósito, contexto, orden y formato. Su diseño es tan importante como la propia capacidad del modelo: marca la frontera entre una herramienta que “responde” y una que “resuelve”. A medida que los LLM se integran en procesos corporativos, dominar este lenguaje operativo se convierte en una habilidad estratégica, tan necesaria como lo fue, en su día, aprender a estructurar una hoja de cálculo o redactar un informe claro.
La palabra prompt ya pertenece al “idioma oficina”, será repetida sin descanso en reuniones y documentos. Pero dominar su ejecución es determinante para aprovechar al máximo las herramientas de Inteligencia Artificial.