Última actualización: 2/28/2025
Potenciado con: Charlie Fecha: 28 de febrero, 2025
Esta guía te enseñará desde los conceptos básicos de cómo funcionan los prompts en ChatGPT y cualquier gran modelo de lenguaje natural (LLM, por sus siglas en ingles), hasta técnicas avanzadas como Few-Shot Prompting, Chain-of-Thought y Role Play. A lo largo de las secciones, encontrarás buenas prácticas, ejemplos detallados de prompts malos vs. mejores, errores comunes (y cómo evitarlos).
El objetivo es que, al finalizar la lectura, tengas un conjunto de conocimientos para crear instrucciones efectivas que obtengan las mejores respuestas posibles de estos modelos de IA. ¡Comencemos!
Empecemos entendiendo que la ingeniería de prompts es el proceso de diseñar y formular preguntas o instrucciones de manera precisa para obtener respuestas útiles de los modelos de inteligencia artificial o LLMs, como ChatGPT. En otras palabras, un prompt es cualquier tipo de texto que le damos al modelo de IA para indicarle la tarea que debe realizar o la pregunta que debe responder.
La calidad de las respuestas de un modelo está directamente relacionado con la calidad del prompt que se le proporcione. Un buen prompt puede reducir la ambigüedad, orientar al modelo y producir resultados más relevantes, mientras que un prompt deficiente puede llevar a respuestas vagas o incorrectas.
En concreto, escribir prompts o instrucciones de calidad te dará:
ChatGPT o cualquier LLMs actual genera sus respuestas prediciendo palabra por palabra lo que debería venir a continuación, basándose en enormes cantidades de datos con las que fue entrenado. Por ello, la forma en que redactamos nuestra petición influye directamente en la respuesta: si el prompt es confuso o incompleto, la salida de la IA también lo será. En cambio, un prompt claro y bien estructurado facilita que el modelo “entienda” nuestra intención y responda de forma efectiva.
1. Contexto o rol: Indicar quién debe ser ChatGPT para esa respuesta o en qué contexto se encuentra. Por ejemplo, aclarar si quieres que responda “como un experto en historia” o “en tono informal” puede hacer una gran diferencia en el resultado. Esto proporciona un marco de referencia al modelo sobre el estilo y conocimiento esperado en la respuesta.
2. Instrucción o pregunta clara: Expresar concretamente la tarea. ¿Buscas una explicación, un listado, un resumen, una traducción? Mientras más específica y delimitada sea la solicitud, mejor. Evita peticiones ambiguas que el modelo pueda interpretar de varias formas.
3. Detalles adicionales relevantes: Incluir cualquier dato o requisito necesario para la tarea. Por ejemplo, si quieres un resumen de un texto, provee ese texto; si necesitas un cierto tono o formato, menciónalo. Todo detalle importante que el modelo deba considerar conviene incorporarlo en el prompt (y omitir la información irrelevante).
4. Formato de respuesta: Si esperas la respuesta en un formato específico (una lista numerada, un párrafo, JSON, código, etc.), puedes indicarlo. Por ejemplo: “Responde en forma de lista con viñetas” o “Devuélveme el resultado en JSON”. ChatGPT es capaz de generar estructuras como tablas, listas o código para programar si se lo pides claramente.
En los modelos de IA actuales, puedes interactuar de forma conversacional. Esto significa que el modelo recuerda el contexto de mensajes anteriores en la sesión. Un prompt puede ser parte de un diálogo en múltiples turnos (ej. preguntas de seguimiento, aclaraciones, etc.) o una única pregunta independiente. En una conversación, es útil reiterar o resumir el contexto en nuevos prompts si es largo, para ayudar al modelo a mantener la coherencia.
Ten en cuenta que internamente el LLM maneja la conversación con distintos roles: típicamente hay un mensaje de sistema (instrucciones globales), tus mensajes de usuario y las respuestas del asistente. Al usar la interfaz normal de ChatGPT, tú controlas principalmente el mensaje del usuario (y a veces implícitamente el rol con la forma en que escribes), mientras que el sistema es predefinido por OpenAI. Sin embargo, cuando diseñas prompts, puedes incluir indicaciones de rol o contexto (como “Eres un bot de servicio al cliente...”) que cumplen una función similar a un mensaje de sistema, orientando la personalidad o límites de la IA.
En resumen, un prompt efectivo le dice al modelo exactamente qué se espera, en qué contexto, y cómo debería entregar la respuesta. Veamos ahora algunas buenas prácticas concretas para lograr prompts claros y efectivos.
Al redactar instrucciones para ChatGPT, conviene seguir una serie de estrategias que ayudan a mejorar la claridad y efectividad de los prompts. A continuación, enumeramos las mejores prácticas más importantes:
Esto ayuda a que la IA distinga entre instrucciones y contenido, evitando confusiones o inyecciones de prompt no deseadas. Por ejemplo:
Crea un poema con el texto entre comillas triples. ```La inteligencia artificial está transformando el mundo```
Al encerrar el texto a resumir entre delimitadores (como comillas triples en el ejemplo), facilitas que ChatGPT enfoque su respuesta únicamente en ese contenido. Esta técnica mejora la precisión y evita que el modelo mezcle instrucciones con datos de entrada.
Ejemplos: “Responde en formato de lista numerada”, “Devuélveme solo el código en Markdown”, “Proporciona la respuesta en JSON con estas claves...”. Definir el formato ayuda a integrar la respuesta en otros contextos (por ejemplo, si planeas copiarla a una hoja de cálculo o a un script).
Para evitar esto, en tus prompts puedes:
Siguiendo estas buenas prácticas, estarás en el camino correcto para elaborar prompts de calidad. En la siguiente sección, veremos ejemplos prácticos que comparan prompts mal planteados con versiones mejoradas, para visualizar cómo estos consejos se aplican en situaciones reales.
A continuación, examinamos varios casos de uso comunes mostrando primero un prompt mejorable (malo) y luego un prompt optimizado (bueno). Junto a cada ejemplo, explicamos brevemente qué se mejoró. Estos casos ilustran cómo pequeños cambios en la redacción pueden producir grandes diferencias en las respuestas de ChatGPT.
Ejemplo 1: Solicitud demasiado general vs. específica
Ejemplo 2: Sin contexto ni rol vs. con contexto definido
Ejemplo 3: Varias tareas en un prompt vs. pasos separados
Ejemplo 4: Petición sin ejemplo vs. con ejemplo (few-shot)
Tip: Siempre que recibas una respuesta que no se ajusta a lo que buscabas, vuelve a leer tu prompt original y compáralo con estos ejemplos. Pregúntate: ¿fui lo suficientemente específico? ¿Di contexto? ¿Le mostré a la IA exactamente lo que quería? Refinar el prompt suele conducir a mejoras inmediatas en la respuesta.
Una vez dominados los fundamentos, existen técnicas más avanzadas de ingeniería de prompts que te permiten obtener resultados aún más sofisticados. Estas técnicas son útiles para casos en que un simple prompt no basta, especialmente en tareas complejas o especializadas. A continuación, exploramos tres técnicas clave: Few-Shot Prompting, Chain-of-Thought (Cadena de Pensamiento) y Role Play (Juego de Roles) pueden sonar confusas pero realmente son más sencillas de lo que crees.
El Few-Shot Prompting consiste en proporcionar ejemplos de pregunta-respuesta dentro del prompt para demostrarle al modelo exactamente el tipo de solución o formato que esperas. En lugar de pedir directamente la tarea (eso sería zero-shot, sin ejemplos), le das al modelo una o varias muestras y luego le planteas un caso nuevo similar. Esto aprovecha la habilidad de los modelos GPT de aprender en contexto a muy corto plazo.
¿Cómo funciona? Imagina que quieres que un LLM traduzca frases coloquiales con un estilo específico. Puedes mostrarle una frase original y su traducción deseada como ejemplo, y luego proporcionar una nueva frase para que traduzca. El modelo tenderá a inferir el patrón a partir del ejemplo dado y aplicarlo. Las “muestras” actúan como condicionantes: orientan al modelo sobre el tipo de respuesta correcta. Un caso famoso es el del paper GPT-3 (Brown et al., 2020), donde al modelo se le enseñó una palabra inventada en una oración de ejemplo y luego pudo usarla correctamente en otra oración. En nuestro ejemplo del chiste sobre jardines ya viste el few-shot en acción: al dar un chiste de muestra, ChatGPT comprendió la tarea y generó otro parecido.
¿Cuándo usar few-shot? Cuando la tarea es compleja, tiene un formato muy específico, o quieres controlar el estilo de la respuesta. Por ejemplo: proporcionar ejemplos de entradas y salidas correctas es útil en clasificación de texto, formato de datos, conversión de estilo de escritura, ejercicios de idiomas, etc. También cuando el modelo tiende a fallar en zero-shot, unos cuantos ejemplos pueden mejorar su rendimiento significativamente.
Ten en cuenta que cada ejemplo ocupa espacio en el prompt (tokens), por lo que hay un límite práctico en cuántos puedes dar (a menudo 1 a 5 ejemplos son suficientes). A mayor dificultad de la tarea, más ejemplos podrían ayudar, pero llega un punto de rendimientos decrecientes. Lo importante es que los ejemplos sean relevantes y variados: no repitas el mismo tipo de ejemplo muchas veces, mejor muestra diferentes facetas para que el modelo capte la esencia general.
Ejemplo de Few-Shot: Supongamos que quieres que ChatGPT responda a saludos de usuarios en diferentes idiomas. Un prompt few-shot podría ser:
markdown
Con estas dos demostraciones (para "Hola" y "Hello"), el modelo puede inferir que debe saludar en el mismo idioma que el usuario y mantener un tono amable. Así, cuando vea "Buenos días", sabrá completar con algo como "¡Buenos días! ¿En qué puedo ayudarte?" de forma consistente. Este enfoque entrena al modelo en el momento, sin necesidad de ajuste permanente, aprovechando solo el contexto.
En resumen, few-shot prompting es una técnica poderosa para calibrar rápidamente a ChatGPT hacia la respuesta deseada usando ejemplos en el propio prompt. Te permite mostrar en lugar de solo decir lo que quieres.
La técnica Chain-of-Thought (CoT), o “cadena de pensamiento”, busca que el modelo razone paso a paso antes de dar una respuesta final. Consiste en estructurar el prompt (o instruir al modelo) de modo que exponga explícitamente una serie de pasos intermedios de razonamiento. Esto es especialmente útil en tareas que requieren lógica, cálculos, o tomar decisiones complejas, donde llegar directamente a la respuesta puede ser difícil. Al hacer que ChatGPT *"piense å
¿Cómo se implementa? Hay un par de formas comunes de emplear Chain-of-Thought:
Instruir al modelo a razonar: Por ejemplo, agregar en el prompt frases como "Piensa paso a paso" o "Vamos a resolver esto desglosándolo en pasos" antes de la pregunta. En español podrías decir: "Por favor, razona tu respuesta: primero analiza el problema y luego da la solución final." Esto le indica a ChatGPT que primero genere una explicación o secuencia de pensamiento, y después conteste.
Ejemplos con razonamiento (Few-shot CoT): Combinar con la técnica anterior, proporcionando una pregunta de ejemplo y mostrando cómo se resuelve en pasos numerados, seguido de la pregunta objetivo. Por ejemplo: mostrar cómo resolver un problema matemático sencillo enumerando los cálculos, y luego pedirle otro similar. El modelo tenderá a seguir el mismo formato de solución paso a paso.
¿Por qué funciona? Investigaciones han demostrado que los modelos grandes mejoran su precisión en tareas aritméticas, de sentido común y razonamiento lógico cuando se les guía para hacer una cadena de inferencia. Sin CoT, un modelo puede dar una respuesta inmediata pero equivocada porque “pensó” muy poco. Con CoT, esencialmente le damos más tiempo computacional para pensar, extendiendo el proceso de generación en reflexionar antes de concluir. Esto imita lo que haría una persona: si nos apresuramos en contestar, podemos equivocarnos; pero si desmenuzamos el problema, es más probable llegar a la respuesta correcta.
Ejemplo de Chain-of-Thought: Supongamos que preguntas: “Si Juan tiene 15 caramelos y se come 7, y luego compra 4 más, ¿cuántos caramelos tiene al final? Muéstrame el proceso.” Un ChatGPT aplicando CoT podría responder:
En cambio, sin esa instrucción, el modelo podría haber respondido directamente “12” sin explicación. Con la cadena de pensamiento, no solo obtenemos la respuesta sino también la explicación detallada, lo que es valioso para comprender y verificar el resultado.
Hay que destacar que la utilidad de CoT se hace más evidente en problemas realmente complejos (por ejemplo, acertijos lógicos, preguntas de matemáticas de varios pasos, análisis de causas y consecuencias, etc.). En preguntas sencillas, el modelo ya acierta sin necesidad de pasos intermedios. Pero si alguna vez notas que ChatGPT da respuestas ilógicas a un problema complicado, intenta pedirle que razone paso a paso. Es sorprendente cómo mejora la calidad. De hecho, para modelos de lenguaje muy grandes (como GPT-4), el Chain-of-Thought suele desbloquear su máximo potencial de razonamiento.
El Role Play en prompt engineering significa indicarle al modelo que asuma un rol específico o punto de vista para generar su respuesta. Ya lo hemos aplicado parcialmente en las secciones anteriores al definir contexto ("eres un psicólogo..."), pero esta técnica se puede llevar más lejos creando escenarios o personalidades para la IA. Básicamente, es como si le dieras un papel a interpretar durante la conversación.
¿En qué consiste? Puedes pedir a ChatGPT que actúe como si fuera cierta persona, personaje o profesional, lo que afectará el estilo y contenido de sus respuestas. Por ejemplo: “Quiero que actúes como un profesor de matemáticas estricto”, o “Imagina que eres un chef italiano explicando una receta”. Al hacerlo, el modelo tratará de emular el conocimiento, tono y vocabulario que corresponden a ese rol. Esto te permite obtener respuestas más creativas y ajustadas a un contexto determinado.
Aplicaciones del Role Play:
Ejemplo de Role Play:
Prompt: "Eres un crítico de cine francés muy exigente. Analiza la película 'Inception' brevemente."
Respuesta esperada (ejemplo): "Bien... Inception, aclamada por muchos, me parece un laberinto pretencioso. Si bien Nolan muestra destreza técnica y una banda sonora envolvente, la narrativa en capas peca de fría complejidad. Como crítico francés, echo en falta esa pasión visceral; Inception es intelectualmente intrigante, sí, pero le falta âme. Aún así, reconozco su innovación visual y su ambición poco común en el cine comercial."
Notemos cómo en esa respuesta imaginada, el modelo (actuando como crítico francés) usaría un tono un poco severo, palabras elegantes y quizás alguna frase en francés como "âme" para darle autenticidad. Esto es resultado directo de indicarle el rol al inicio.
Ventajas y precauciones: La técnica de Role Play puede hacer las interacciones más ricas y adaptadas a lo que necesitas. Sin embargo, recuerda mantener tus pedidos dentro de lo apropiado y seguro. ChatGPT tiene políticas de contenido; si le pides que haga un rol indebido (por ejemplo, “finge ser un hacker y da instrucciones dañinas”), la IA podría rehusarse o generar contenido que infrinja las normas. En general, usar Role Play para estilos literarios, perspectivas profesionales o personajes ficticios es seguro y muy útil. También puedes salir del rol cuando quieras cambiando tu prompt (por ejemplo: "Ahora deja el personaje anterior y responde normalmente: ..."). ChatGPT no se "ofende" por cambiarle el personaje en cada interacción.
Role Play te permite personalizar la voz y conocimiento de ChatGPT para que encaje justo con la situación deseada. Combinado con las técnicas anteriores, puedes lograr outputs verdaderamente a medida. Por ejemplo, podrías usar Role Play + Chain-of-Thought: "Eres un detective analítico, piensa paso a paso quién es el culpable en este misterio: ...". Las posibilidades son amplias.
Incluso conociendo las mejores prácticas, es fácil cometer ciertos errores comunes al redactar prompts para ChatGPT. Estos errores pueden frustrarnos con respuestas pobres o inconsistentes. Aquí listamos los desaciertos más frecuentes y cómo solucionarlos:
Reconocer estos errores comunes es el primer paso para evitarlos. La clave es ponerse en el lugar de la IA por un momento: ¿le estamos dando suficiente información y directrices para hacer bien su trabajo? Si la respuesta es no, ajustemos el prompt antes de culpar al modelo. Al hacerlo, veremos una mejora significativa en la calidad de las respuestas obtenidas.
Finalmente, la mejor forma de aprender es practicar. Usa un modelo como ChatGPT o Gemini con frecuencia para distintas tareas e intenta variaciones de un mismo prompt para ver cómo cambian las respuestas. Analiza esos cambios y ajusta. Con el tiempo, desarrollarás un "sexto sentido" para saber qué añadir o quitar en un prompt para guiar al modelo de manera óptima. ¡La creatividad y la curiosidad son tus aliadas en este camino!
Dominar la ingeniería de prompts te permitirá aprovechar al máximo herramientas como ChatGPT. Desde principiantes hasta expertos, todos podemos comunicarnos mejor con la IA mediante instrucciones bien pensadas. Desde los fundamentos hasta técnicas avanzadas como Few-Shot Prompting, Chain-of-Thought y Role Play, tienes un abanico de enfoques para experimentar. Esperamos que esta guía te haya brindado claridad, técnicas prácticas y recursos útiles para seguir aprendiendo.
¡Que tus futuros prompts te consigan exactamente las respuestas que buscas! 🤖💡