Ingeniería de Prompts: Guía Práctica de Google
No hace falta ser científico de datos para escribir un buen prompt, pero sí necesitás técnica. Analizamos el whitepaper oficial de Google sobre cómo configurar salidas, estructurar contextos y usar razonamiento avanzado en LLMs.
La ingeniería de prompts es mucho más que escribir una frase en un chat; es un proceso iterativo de diseño, prueba y ajuste. Los Modelos de Lenguaje Grande (LLMs) son motores de predicción: toman un texto de entrada y calculan cuál es el token (pieza de palabra) más probable para continuar la secuencia.
En esta guía, basada en la documentación técnica de Google, desglosamos cómo controlar estas predicciones para pasar de respuestas genéricas a soluciones de ingeniería precisas.
Configuración de Salida: El Control del Motor
Antes de escribir una sola palabra, debés entender los parámetros que controlan la "creatividad" del modelo. Si usás la API de Gemini o Vertex AI, esto es crucial:
- Temperatura: Controla la aleatoriedad. Una temperatura baja (cercana a 0) hace que el modelo sea determinista (ideal para código o matemáticas). Una temperatura alta fomenta la diversidad y creatividad, pero aumenta el riesgo de alucinaciones.
- Top-K y Top-P: Son filtros de selección. Top-K elige entre las K fichas más probables (ej. las 3 mejores). Top-P selecciona el conjunto mínimo de fichas cuya probabilidad acumulada no supera un valor P (ej. 0.95). Jugar con estos valores ajusta cuán "obvia" o "inesperada" será la siguiente palabra.
Técnicas de Prompting Esenciales
1. Zero-shot vs. Few-shot
El enfoque más básico es el Zero-shot: simplemente pedir lo que querés sin ejemplos. Sin embargo, para tareas complejas, el estándar de oro es el Few-shot prompting: proporcionar al modelo 3 a 5 ejemplos de entrada/salida deseada antes de tu petición real. Esto enseña al modelo el patrón, formato y estilo que debe imitar.
2. Sistema, Contexto y Rol
Una estructura robusta divide el prompt en tres capas:
- Prompt del Sistema: Define el "panorama general" y las reglas inquebrantables (ej. "Sos un experto en Python, devolvé solo código JSON").
- Contexto: Información de fondo relevante para la tarea actual.
- Rol: Asignar una identidad (ej. "Actuá como un guía turístico sarcástico") ayuda al modelo a ajustar el tono y vocabulario.
Razonamiento Avanzado
Cuando los modelos fallan en lógica o matemáticas, no es por falta de conocimiento, sino de proceso.
Chain-of-Thought (CoT)
Esta técnica fuerza al modelo a generar "pasos intermedios de razonamiento" antes de dar la respuesta final. Es tan simple como agregar "Pensemos paso a paso" al final del prompt, o dar ejemplos donde se desglose la lógica. Esto mejora drásticamente la precisión en problemas aritméticos o lógicos.
ReAct (Reason & Act)
ReAct es el paradigma que permite a los LLMs actuar como agentes. Combina el razonamiento verbal con el uso de herramientas externas (como búsqueda en Google o ejecutar código Python). El modelo "piensa" qué necesita, "actúa" (ejecuta una búsqueda), "observa" el resultado y vuelve a pensar.
Automatización y Salidas Estructuradas
Para integrar LLMs en software real, el texto libre es un problema. La mejor práctica es forzar salidas en JSON definiendo un esquema claro en el prompt. Esto facilita el parseo y reduce alucinaciones. Además, existe la Ingeniería de Prompts Automática (APE), donde usamos un LLM para escribir y optimizar los prompts de otro LLM.
Action Points: Tu Checklist de Calidad
Antes de desplegar un prompt en producción, verificá estos puntos:
Usá Instrucciones Positivas
Decile al modelo "lo que debe hacer" en lugar de una lista larga de restricciones sobre "lo que no debe hacer". Evita confusiones.
Estructurá con Ejemplos
Incluí siempre 3-5 ejemplos (Few-shot) de alta calidad. Es la herramienta de enseñanza más potente para el modelo.
Especificá el Formato
Si necesitás datos, pedí JSON o XML explícitamente y proporcioná un esquema o plantilla vacía.
Documentá e Iterá
Mantené un registro (como una hoja de cálculo) con versiones del prompt, temperatura usada y calidad de la salida.
Conclusión
La ingeniería de prompts se está moviendo de un arte oscuro a una disciplina de ingeniería sistemática. Ya sea usando Tree of Thoughts para explorar múltiples vías de solución o Step-back prompting para abstraer problemas, la clave está en guiar al modelo con claridad, contexto y restricciones estructuradas.
Descargar Guía Completa (PDF)
Accedé al documento original traducido para profundizar en los ejemplos de código Python y las tablas comparativas.