ProductosAI

Comprendiendo los Hiperparámetros: Clave para Optimizar el uso de ChatGPT

Por: Miguel Oviedo

Abril 16, 2023

¿Qué son los hiperparámetros?

Los hiperparámetros son configuraciones o variables que influyen en la forma en la que ChatGPT se comporta. Estas variables controlan cómo aprende el modelo y pueden tener un impacto significativo en el rendimiento del modelo.

ChatGPT en español

¿Por qué son importantes los hiperparámetros?

Porque afectan el comportamiento y el rendimiento del modelo durante el proceso de entrenamiento y/o obtener resultados. Los hiperparámetros son ajustes que puedes modificar para optimizar el desempeño del modelo y adaptarlo a tus necesidades específicas.

Hiperparámetros que se utilizan en el API para interactuar los modelos de ChatGPT

MODE: Te permite especificar el modo de funcionamiento del modelo al interactuar con el API de OpenAI. Puede tener tres posibles valores:

  • Complete: Este modo se utiliza para obtener predicciones de “completación” de texto a partir de un prompt dado. El modelo generará una o más opciones de “completación” y las devolverá como resultado. Puedes utilizar este modo para generar texto continuando una frase o párrafo inicial.

  • Chat: Se utiliza para llevar a cabo conversaciones con el modelo. Puedes proporcionar una lista de mensajes que describen una conversación y el modelo generará una respuesta adecuada. Puedes utilizar este modo para tener interacciones de estilo de chat con el modelo.

  • ChatGPT en español
  • Edit: Se utiliza para realizar tareas de edición en prompts. Puedes proporcionar una instrucción junto con el prompt y el modelo retornará una versión editada del prompt, ajustándolo según la instrucción proporcionada.


  • Insert: Las completaciones de texto también admiten la inserción de texto dentro de otro texto. Este modo es muy útil al escribir textos de larga duración, para hacer la transición entre párrafos, seguir un esquema o guiar al modelo hacia un final.


  • MODEL: Te permite seleccionar una versión específica del modelo de lenguaje de ChatGPT. Puedes especificar el nombre del modelo, como "text-davinci-003" o "text-curie-001", para utilizar una versión particular del modelo que mejor se ajuste a tus necesidades. Ten en cuenta que diferentes modelos tienen diferentes capacidades y costos asociados, por lo que es importante elegir el modelo adecuado para tu caso de uso.

    ChatGPT en español

    Temperature: Controla la aleatoriedad de las respuestas generadas por el modelo. Un valor más alto de temperatura (por ejemplo, 0.8) produce respuestas más creativas y variadas, mientras que un valor más bajo (por ejemplo, 0.2) produce respuestas más determinísticas y coherentes.

    ChatGPT en español

    Stop sequences: Es una lista de secuencias de texto que puedes proporcionar para indicar al modelo que detenga la generación de texto cuando encuentre alguna de estas secuencias. Puedes utilizar esto para controlar de manera más precisa dónde quieres que termine la respuesta del modelo.

    Top_p: También conocido como "nucleus sampling", controla la diversidad de las respuestas generadas por el modelo. Es un valor entre 0 y 1 que define la probabilidad acumulada mínima de las palabras que el modelo puede generar. Un valor más alto de top_p (por ejemplo, 0.8) permite que se consideren más opciones para la siguiente palabra, lo que puede resultar en respuestas más diversas y creativas. Se recomienda usar este parámetro o Temperature pero no ambos.

    Frequency_penalty: Es un valor numérico que se utiliza para penalizar la repetición de palabras en la salida del modelo. Un valor más alto de frequency_penalty (por ejemplo, 2.0) hará que el modelo evite repetir las mismas palabras con frecuencia en su respuesta.

    Hiper parametros ChatGPT

    Best_of: Te permite especificar el número de respuestas alternativas que deseas que el modelo genere en una conversación. El modelo generará varias respuestas y te devolverá la mejor según su criterio. Puedes ajustar este valor para obtener varias opciones de respuesta y elegir la que mejor se adapte a tus necesidades. (Debes tener cuidado con este parámetro ya que puede consumir el numero de tokens más rápidamente)

    Inject_start_text: Te permite proporcionar un texto inicial adicional que se agrega al comienzo de la conversación. Esto puede ser útil si deseas establecer un contexto o una introducción específica antes de que el modelo genere su respuesta.

    Inject_restart_text: Te permite proporcionar un texto adicional que se agrega al reiniciar una conversación después de que se haya interrumpido o pausado previamente. Esto te permite reiniciar la conversación con un contexto específico y retomar la interacción con el modelo desde un punto anterior en la conversación.

    Show_probabilities: Cuando se establece en "true", permite mostrar las probabilidades de las palabras generadas por el modelo en la salida. Esto puede ser útil si deseas tener una idea de la confianza del modelo en las palabras que genera.

    Volver Arriba