Los hiperparámetros son configuraciones o variables que influyen en la forma en la que ChatGPT se comporta. Estas variables controlan cómo aprende el modelo y pueden tener un impacto significativo en el rendimiento del modelo.
Porque afectan el comportamiento y el rendimiento del modelo durante el proceso de entrenamiento y/o obtener resultados. Los hiperparámetros son ajustes que puedes modificar para optimizar el desempeño del modelo y adaptarlo a tus necesidades específicas.
MODE: Te permite especificar el modo de funcionamiento del modelo al interactuar con el API de OpenAI. Puede tener tres posibles valores:
MODEL: Te permite seleccionar una versión específica del modelo de lenguaje de ChatGPT. Puedes especificar el nombre del modelo, como "text-davinci-003" o "text-curie-001", para utilizar una versión particular del modelo que mejor se ajuste a tus necesidades. Ten en cuenta que diferentes modelos tienen diferentes capacidades y costos asociados, por lo que es importante elegir el modelo adecuado para tu caso de uso.
Temperature: Controla la aleatoriedad de las respuestas generadas por el modelo. Un valor más alto de temperatura (por ejemplo, 0.8) produce respuestas más creativas y variadas, mientras que un valor más bajo (por ejemplo, 0.2) produce respuestas más determinísticas y coherentes.
Stop sequences: Es una lista de secuencias de texto que puedes proporcionar para indicar al modelo que detenga la generación de texto cuando encuentre alguna de estas secuencias. Puedes utilizar esto para controlar de manera más precisa dónde quieres que termine la respuesta del modelo.
Top_p: También conocido como "nucleus sampling", controla la diversidad de las respuestas generadas por el modelo. Es un valor entre 0 y 1 que define la probabilidad acumulada mínima de las palabras que el modelo puede generar. Un valor más alto de top_p (por ejemplo, 0.8) permite que se consideren más opciones para la siguiente palabra, lo que puede resultar en respuestas más diversas y creativas. Se recomienda usar este parámetro o Temperature pero no ambos.
Frequency_penalty: Es un valor numérico que se utiliza para penalizar la repetición de palabras en la salida del modelo. Un valor más alto de frequency_penalty (por ejemplo, 2.0) hará que el modelo evite repetir las mismas palabras con frecuencia en su respuesta.
Best_of: Te permite especificar el número de respuestas alternativas que deseas que el modelo genere en una conversación. El modelo generará varias respuestas y te devolverá la mejor según su criterio. Puedes ajustar este valor para obtener varias opciones de respuesta y elegir la que mejor se adapte a tus necesidades. (Debes tener cuidado con este parámetro ya que puede consumir el numero de tokens más rápidamente)
Inject_start_text: Te permite proporcionar un texto inicial adicional que se agrega al comienzo de la conversación. Esto puede ser útil si deseas establecer un contexto o una introducción específica antes de que el modelo genere su respuesta.
Inject_restart_text: Te permite proporcionar un texto adicional que se agrega al reiniciar una conversación después de que se haya interrumpido o pausado previamente. Esto te permite reiniciar la conversación con un contexto específico y retomar la interacción con el modelo desde un punto anterior en la conversación.
Show_probabilities: Cuando se establece en "true", permite mostrar las probabilidades de las palabras generadas por el modelo en la salida. Esto puede ser útil si deseas tener una idea de la confianza del modelo en las palabras que genera.