Conceptos de Prompt Engineering

25/5/2025Pedro VG

En este artículo exploraremos el "arte" del Prompt Engineering y cómo puede mejorar la forma de interactuar con los modelos de lenguaje (LLMs).

El mito

El Prompt Engineering se ha presentado muchas veces como una nueva rama de la computación, pero en realidad es un conjunto de técnicas que nos permiten obtener mejores respuestas de los modelos de lenguaje.

Estos conceptos varían dependiendo del modelo, por lo que no son aplicables universalmente e incluso pueden cambiar en función de elementos como el contexto previo o el System Prompt.

Aquí planteamos tres conceptos clave para interactuar con un LLM:

  1. Definir el formato: Es esencial definir claramente qué estructura se espera del modelo. Por ejemplo, si quieres que la respuesta siga un formato específico en JSON o una lista numerada con ciertos elementos, debes especificarlo en el prompt. El LLM no es adivino y no podrá predecir el formato esperado para su respuesta, a menos que sea algo muy obvio o común, como una estructura narrativa.

  2. Ser claro y específico: Para obtener respuestas efectivas del modelo, es importante indicar exactamente lo que se desea de su respuesta. Veamos algunos ejemplos:

    "Resuelve los errores de sintaxis en esta función."
    
    "Escribe un correo de estilo comercial con tres párrafos y un breve saludo al inicio. Debes plantear el correo como una propuesta efímera, usa estos documentos de contexto."
    

    Por otro lado, pedirle al modelo múltiples tareas sin relación directa entre ellas aumenta significativamente la probabilidad de obtener respuestas inadecuadas, como en este caso:

    "Resuelve los bugs en esta función y escribe el código para esta otra funcionalidad."
    

    Los LLMs más avanzados no son tan propensos a cometer errores en estos casos, pero la precisión aún se reduce.

  3. Conversar y aprender: Desarrollar un prompt efectivo es una tarea iterativa que puede requerir múltiples intentos y ajustes. Cuanto más compacto sea el modelo, más necesario será afinar el prompt. Además, ya que la interacción con el LLM suele ser conversacional, se pueden realizar múltiples pasos para completar la tarea deseada.

Conclusión

Comprender cómo funciona el Prompt Engineering convierte a esta herramienta en un recurso valioso para aumentar la productividad que podemos extraer de los modelos de lenguaje, facilitando aún más nuestra forma de interactuar con la IA.