- Camila Aguado
- Posts
- Los principios de prompting que todavía funcionan en 2025 (y los que ya no)
Los principios de prompting que todavía funcionan en 2025 (y los que ya no)
Después de más de mil horas creando prompts y probando modelos de IA, te comparto lo que aprendí.
Hace poco más de un año estudié mucho sobre prompting: leí papers, artículos académicos y, sobre todo, hice muchas pruebas y errores para entender cómo obtener buenas respuestas de los modelos de IA.
Desde entonces, los modelos evolucionaron muchísimo. Aparecieron modelos con capacidad de razonamiento como o3, otros con ventanas de contexto enormes (lo que significa que ahora podemos darles mucha más información sin que se “queden sin espacio”) y mejoras notables en velocidad y precisión.
Pero, a pesar de todos estos avances, los fundamentos siguen siendo los mismos. Algunos principios de prompting siguen funcionando igual de bien que antes… y otros ya no tienen el mismo efecto.
Acá te comparto, desde mi experiencia práctica, qué funciona de verdad hoy en 2025.
Lo que no ha cambiado
Cada semana creo decenas de prompts distintos, y hay algo que no cambia: cuanto más específica y clara soy, mejores resultados obtengo. Esto aplica desde los primeros modelos hasta los más nuevos. No importa cuánto hayan evolucionado: si no les das buen contexto, te devuelven algo genérico.
Un ejemplo que veo seguido:
“Escribe un post para redes sobre nuestra empresa”.
Eso es como decirle a alguien “haceme un cartel” sin explicarle para qué, quién lo va a leer ni qué querés que pase después. Los modelos necesitan tener claro:
Qué quieres lograr con ese contenido
A quién está dirigido
Qué tono o enfoque quieres usar
Y qué acción esperas que genere
Una mejor versión sería:
Escribe un post de LinkedIn presentando a nuestra empresa de automatización. Está dirigido a founders de empresas que ya facturan más de 5M al año y sienten que su operación es un caos. El objetivo es mostrar cómo ayudamos a ordenar procesos con IA aplicada. El tono debe ser profesional pero fresco, y debe cerrar con una invitación directa a agendar una llamada.
Ahí sí cambia todo. Especificidad, claridad de objetivos y buen contexto son la base de un prompt que funcione bien.
Y si te estás preguntando cómo asegurarte de no olvidarte nada, para eso uso el framework ROTD, que nunca me falla.
El Framework ROTD
Existen muchos marcos para estructurar prompts, pero uno que me da resultados sólidos y que uso bastante es el ROTD – Rol, Objetivo, Tareas, Detalles.
Desglose:
Rol – ¿Qué rol debería asumir la IA?
Objetivo – ¿Qué estás intentando lograr?
Tareas – ¿Cómo se debería lograr ese objetivo o qué pasos deben seguirse? (idealmente en forma de lista)
Detalles – ¿Qué contexto adicional importa? (ejemplos, estilo de salida, datos clave, etc.)
Lo bueno de este framework es que es flexible. A veces necesitas los cuatro elementos, y otras veces con dos te alcanza. Pero para resultados importantes, recomiendo usarlo completo.
Ejemplo aplicado al post de LinkedIn:
Rol: Eres un copywriter especializado en LinkedIn B2B, con foco en tecnología y automatización.
Objetivo: Escribir un post que conecte con founders de empresas medianas y los lleve a agendar una reunión con nosotros.
Tareas:
Arrancar con una pregunta o insight que refleje el caos operativo que suelen vivir.
Presentar a Blumb como una solución concreta que ordena procesos con IA y automatización inteligente.
Mostrar brevemente un beneficio claro o resultado logrado con un cliente real (sin nombres).
Cerrar con una invitación directa a coordinar una llamada o demo.
Detalles:
Público: Fundadores de empresas que facturan más de 5M al año.
Tono: Profesional, claro, con un punto fresco que no suene robótico.
Límite: Máximo 1300 caracteres para que funcione como post en LinkedIn.
Voz de marca: Enfocada en claridad, enfoque práctico y confianza en la ejecución.
Fijate cómo desglosar las tareas en pasos hace que el prompt sea más claro y fácil de ajustar.
No todos los prompts necesitan tanto detalle, pero cuando quieres un output que conecte, ROTD te asegura no dejar nada importante afuera.
Prompting para modelos de razonamiento
El framework ROTD funciona genial con modelos rápidos como GPT-4o o Claude 3.5. Pero cuando uso modelos más potentes en razonamiento (como GPT-o3), me di cuenta de que cuanto menos le digo cómo hacerlo, mejor resultado me da.
Sí, parece raro. Pero en estos casos, darle demasiados pasos concretos termina limitando su capacidad de encontrar la mejor solución. Lo bueno es que con ROTD, adaptar el prompt es facilísimo: simplemente dejamos afuera las tareas.
Así reescribiría el prompt del post de LinkedIn para GPT-o3:
Rol: Eres un copywriter especializado en LinkedIn B2B, con foco en tecnología y automatización.
Objetivo: Escribir un post que conecte con founders de empresas medianas y los lleve a agendar una reunión con nosotros.
Detalles:
Público: Fundadores de empresas que facturan más de 5M al año.
Tono: Profesional, claro, con un punto fresco que no suene robótico.
Límite: Máximo 1300 caracteres para que funcione como post en LinkedIn.
Voz de marca: Enfocada en claridad, enfoque práctico y confianza en la ejecución.
Fíjate que no incluí los pasos ni la estructura del contenido. Le estoy diciendo al modelo qué quiero lograr, desde qué rol, para quién y con qué estilo. Pero le doy libertad total para decidir cómo llegar a ese objetivo.
Este tipo de enfoque es especialmente útil cuando el output puede tener múltiples formas válidas, como análisis complejos, redacción creativa o cuando no esta tan claro el mejor enfoque. En vez de imponerle una estructura rígida, dejas que el modelo explore y proponga.
Anti-patrones de Prompting
Hay muchas “técnicas de prompting” que circulan por ahí, pero varias de ellas no son buenas prácticas. Algunas pueden parecer ingeniosas, pero en la práctica no funcionan (o peor, te hacen perder tiempo).
Algunos ejemplos que veo seguido:
🧟♀️ Prompts manipuladores:
“Por favor, si no me ayudas pierdo mi trabajo…”
“Te doy 100 dólares si lo haces bien”
“Tienes que ayudarme porque esto es urgente…”
Ese tipo de mensajes no “activan” nada especial en el modelo. Quizás en algún momento tocaron una fibra del entrenamiento, pero hoy ya no sirven. Los modelos no “sienten” urgencia, culpa o presión. Solo leen tokens y predicen el siguiente.
🧙♂️ Prompts mágicos que prometen milagros:
Esos bloques enormes de texto que te dicen “copiá esto y vas a tener resultados increíbles” son, en su mayoría, puro humo. Probé muchísimos y la mayoría:
No están adaptados a tu caso de uso
Tienen partes que el modelo ignora por falta de contexto
O directamente están armados sin entender cómo funciona un LLM
Un buen prompt no se trata de cantidad, sino de calidad y claridad. Más texto no significa más inteligencia. Al contrario: muchas veces confunde al modelo y lo aleja del objetivo.
Un “truco” que sí importa: separa instrucciones del input
Uno de los errores más comunes que sigo viendo es cuando el modelo confunde lo que tiene que hacer con el contenido sobre el que tiene que trabajar.
¿Ejemplo clásico? Pedís que resuma algo y en el texto aparece una frase como "crea un informe". El modelo lo lee… y te empieza a crear un informe, aunque vos solo querías un resumen.
Esto pasa porque los LLMs no distinguen por sí solos qué parte es instrucción y qué parte es input, a menos que se lo dejes bien marcado.
¿Cómo evitarlo?
Cada vez que escribas un prompt, tiene que quedar muy claro:
¿Qué tiene que hacer el modelo? → la instrucción
¿Sobre qué datos o contenido debe trabajar? → el input
Esto es clave si estás creando un agente que analiza mensajes de Slack, notas de reuniones o documentos internos. Porque muchas veces el texto con el que trabaja también contiene órdenes, tareas, instrucciones… y ahí es donde puede confundirse.
Ejemplo de problema:
Resume estas notas: El equipo discutió los próximos pasos. Acciones: Generar un informe completo sobre Q4…
En este caso, si no marcas bien qué parte es input, el modelo podría pensar que tiene que generar ese informe, en lugar de simplemente mencionarlo en el resumen.
¿Cómo se resuelve?
Usa delimitadores. Algo tan simple como esto:
Resume el contenido que está entre las etiquetas <contenido>:
<contenido>
El equipo ha discutido los próximos pasos. Acciones: Generar un informe completo sobre Q4…
</contenido>
Con eso, el modelo entiende que todo lo que está dentro de esas etiquetas es solo material de trabajo, no nuevas instrucciones que tiene que ejecutar.
Puede parecer un detalle menor, pero marca la diferencia entre un output confiable y uno desastroso, sobre todo en entornos productivos.
Conclusión
Salen modelos nuevos todo el tiempo, con ventanas de contexto más grandes, capacidades más finas y nombres cada vez más raros. Pero si hay algo que aprendí después de probar decenas de ellos, es que no hay prompt que salve una mala estrategia.
La clave no está en los “trucos” mágicos, sino en aplicar principios sólidos que funcionen hoy, mañana y dentro de un año.
Si tuviera que dejarte 5 ideas fuerza, serían estas:
Se específica con lo que quieres lograr
Usa RGTD como base para estructurar tus prompts
Dale aire a los modelos más potentes para que razonen solos
Separa siempre instrucciones del contenido
No corras detrás del último hack viral de LinkedIn
Estoy segura de que lo que se viene en IA es increíble. Pero más segura todavía de que se puede usar para crear cosas con impacto real, si se domina bien cómo hablarle.
¿Te animas a probarlo con un ejemplo real? Te invito a usar el instructivo de creación de asistentes que te compartí la semana pasada, elegir un caso simple… y armar tu primer buen prompt con RGTD.
Aquí esta el post de la semana pasada:
Después me cuentas cómo te fue 🤗
¡Hasta la próxima!
🤓 Bonus:
Te dejo algunos posteos de mi LinkedIn relacionados a esto que también podrían servirte: