Última actualización: 8/18/2025
Potenciado con: Charlie Fecha: 18 de agosto, 2025
Esta guía práctica reúne los patrones de razonamiento avanzados más útiles para LLMs —CoT, ReAct y ToT—, cuándo aplicarlos y cómo llevarlos a producción (con snippets en Node/Next). Además, incluye dos extensiones clave: Least-to-Most y Program-of-Thought.
Qué es. Pedimos al modelo que explicite los pasos intermedios antes de dar la respuesta final. Suele mejorar tareas con cálculo, reglas y razonamiento simbólico cuando aportamos pocos ejemplos con razonamientos.
Truco de decodificación — Self-Consistency. En lugar de una sola salida, muestra varias cadenas y elige la respuesta por mayoría. Esto reduce variabilidad y eleva la precisión.
Cuándo usarlo. Problemas con pasos claros (aritmética, checklists, reglas). Cuándo evitarlo. Si latencia/costo son críticos o el modelo ya resuelve sin verbalizar.
Plantilla CoT (ES)
Eres un asistente metódico. Resuelve el problema siguiendo estos pasos:
(1) descompón, (2) calcula, (3) valida.
Primero piensa en voz baja y luego entrega SOLO la respuesta final en la sección "Respuesta:".
Problema: {PREGUNTA}
En producción: oculta el razonamiento interno y muestra solo la respuesta al usuario final.
Qué es. Alterna pensamientos con acciones (búsquedas, APIs, herramientas internas) para fundamentar la respuesta y tomar decisiones en entornos interactivos.
Bucles mentales. Pensar → decidir acción → llamar herramienta → observar → seguir pensando
Ejemplo (TypeScript + Next.js API route)
ts
ts
Cuándo usarlo. Cuando necesitas datos frescos (inventario, envíos, documentación), navegar o corroborar información antes de responder.
Qué es. Generaliza CoT permitiendo ramificar y evaluar pensamientos como estados de un árbol (con búsqueda y retroceso). Es ideal para planificación y búsqueda.
Idea práctica. Implementa un beam search sobre pensamientos: genera k
candidatos por paso, evalúa con una heurística (puntuación del propio modelo o regla) y continúa con los mejores.
Snippet (pseudo-código)
frontera = [estado_inicial]
for paso in 1..H:
candidatos = expandir(frontera, k)
puntuados = evaluar(candidatos)
frontera = top_k(puntuados, beam)
return mejor_solucion(frontera)
Descompone un problema complejo en subproblemas de menor a mayor dificultad y resuélvelos en secuencia; mejora la generalización en tareas composicionales.
Plantilla LtM
1) Enumera los subproblemas mínimos para resolver {PREGUNTA}.
2) Resuélvelos en orden, reutilizando resultados previos.
3) Muestra la respuesta final.
Separa razonamiento y cálculo escribiendo código ejecutable (p. ej., Python) para obtener precisión en tareas numéricas o financieras.
Plantilla PoT (Python)
Resuelve con un programa breve en Python. Devuelve primero el código entre ```python ... ``` y luego la respuesta.
Pregunta: {PROBLEMA_NUMERICO}
max_thoughts
, stop
) para evitar cadenas infinitas.Objetivo: calificar un lead y, si falta información, consultar catálogo (herramienta) y proponer un SKU.
ts
Nota: valida siempre los parámetros con JSON Schema y registra métricas (latencia, tokens, uso de herramientas, éxito de tarea).
¿CoT siempre ayuda? No necesariamente. Si el problema no requiere pasos intermedios o el modelo ya domina la tarea, puede añadir costo sin beneficio. Úsalo de forma hipótesis-dirigida y evalúa con Self-Consistency cuando la respuesta sea sensible al muestreo.
¿ReAct reduce alucinaciones? Suele ayudar porque consulta fuentes o APIs durante el razonamiento. Al combinar pensamiento-acción-observación, la respuesta queda mejor fundamentada.
¿ToT no es muy caro? Puede serlo. Limita ancho (beam) y profundidad, y aplica una heurística barata para filtrar pensamientos antes de expandir. Es especialmente útil en tareas de búsqueda y planificación.
¿Quieres que montemos uno de estos patrones en tu embudo de ventas por WhatsApp (con métricas y dashboard)? Escríbenos en ProductosAI.