Hay varios parámetros que se pueden ajustar en ChatGPT para mejorar los prompts y, en consecuencia, mejorar la calidad de las respuestas generadas. Aquí hay algunos ejemplos:
- Longitud del prompt: el parámetro «max_length» determina la cantidad máxima de tokens que se pueden incluir en el prompt. Si el prompt es demasiado corto, es posible que la respuesta generada no sea relevante. Si es demasiado largo, la respuesta puede ser confusa o irrelevante. Es importante encontrar un equilibrio y ajustar este parámetro según sea necesario.
- Temperatura: el parámetro «temperature» controla la creatividad o conservadurismo en la generación de texto. Un valor alto de temperatura (por ejemplo, 1.0 o superior) producirá respuestas más creativas e impredecibles, mientras que un valor bajo (por ejemplo, 0.5 o inferior) producirá respuestas más conservadoras y predecibles.
- Penalties: hay varias penalizaciones que se pueden aplicar para mejorar la coherencia y cohesión de las respuestas generadas. Por ejemplo, el parámetro «no_repeat_ngram_size» impide que se repitan secuencias de tokens en la respuesta, lo que ayuda a evitar respuestas redundantes o repetitivas. El parámetro «bad_words_ids» permite especificar una lista de palabras que no deben aparecer en la respuesta generada.
- Modelo base: ChatGPT se entrena en diferentes tamaños de modelo. Si está generando respuestas para un dominio específico o una tarea específica, puede ser beneficioso utilizar un modelo preentrenado específico para esa tarea.
- Ejemplos de entrenamiento: el rendimiento de ChatGPT depende en gran medida de los ejemplos de entrenamiento que se le proporcionen. Es importante proporcionar ejemplos relevantes y variados que representen los diferentes tipos de consultas que se pueden hacer en el chatbot.
La opción «temperature» en ChatGPT controla el nivel de creatividad o conservatismo de las respuestas generadas. Cuando se establece una temperatura alta, las respuestas generadas por ChatGPT serán más creativas y sorprendentes, pero también pueden ser más incoherentes o irrelevantes. Por otro lado, cuando se establece una temperatura baja, las respuestas serán más predecibles y coherentes, pero también pueden ser menos creativas.
A continuación, te proporciono una tabla de valores sugeridos para la opción «temperature» en ChatGPT:
- Temperatura baja (0.1 a 0.3): se utilizan para generar respuestas más predecibles y coherentes, lo que puede ser útil en conversaciones más formales o serias.
- Temperatura media (0.4 a 0.6): es el valor predeterminado para la opción «temperature» en ChatGPT y proporciona un equilibrio entre creatividad y coherencia en las respuestas.
- Temperatura alta (0.7 a 1.0): se utilizan para generar respuestas más creativas y sorprendentes, lo que puede ser útil en conversaciones informales o divertidas.
Es importante tener en cuenta que los valores de temperatura recomendados pueden variar dependiendo del contexto y del propósito de la conversación. Por lo tanto, es recomendable experimentar con diferentes valores y evaluar la calidad de las respuestas generadas por ChatGPT en cada caso.
Aquí te proporciono la tabla de valores sugeridos para la opción «temperature» en ChatGPT:
Opción «temperature» | Descripción |
---|---|
Baja (0.1 a 0.3) | Genera respuestas más predecibles y coherentes, útil en conversaciones formales o serias. |
Media (0.4 a 0.6) | Valor predeterminado, proporciona un equilibrio entre creatividad y coherencia en las respuestas. |
Alta (0.7 a 1.0) | Genera respuestas más creativas y sorprendentes, útil en conversaciones informales o divertidas. |
Es importante tener en cuenta que estos valores son solo sugerencias y pueden variar según el contexto y el propósito de la conversación. Se recomienda experimentar con diferentes valores y evaluar la calidad de las respuestas generadas por ChatGPT en cada caso.

Los tokens
Los tokens son las unidades básicas de texto que se utilizan en el procesamiento de lenguaje natural (NLP). En términos simples, los tokens son palabras o partes de palabras que se utilizan para analizar y entender el lenguaje humano en la computadora.
En NLP, el texto se divide en tokens para facilitar su procesamiento. Cada palabra, signo de puntuación, número y símbolo en el texto se convierte en un token individual. Por ejemplo, en la oración «Hola, ¿cómo estás?», cada palabra se convierte en un token: «Hola», «,», «¿», «cómo», «estás» y «?». Cada uno de estos tokens se procesa individualmente para extraer información útil y hacer inferencias sobre el texto.
Los tokens son importantes en el procesamiento de lenguaje natural porque permiten a los algoritmos de la computadora analizar el texto y extraer información relevante de manera más eficiente. La mayoría de los modelos de procesamiento de lenguaje natural, incluido el modelo GPT-3 en el que se basa ChatGPT, trabajan con tokens en lugar de palabras completas para procesar y generar texto.
- «max_length»: longitud máxima del prompt.
- «temperature»: controla la creatividad o conservadurismo en la generación de texto.
- «no_repeat_ngram_size»: impide que se repitan secuencias de tokens en la respuesta.
- «bad_words_ids»: lista de palabras que no deben aparecer en la respuesta generada.
- «avoid»: lista de palabras que deben evitarse en la respuesta generada.
- «include»: lista de palabras que deben incluirse en la respuesta generada.
- «replace»: lista de palabras que deben ser reemplazadas en la respuesta generada.
- Modelo base: modelo preentrenado específico para la tarea o dominio del chatbot.
- «top_k»: límite de opciones de palabras candidatas a las k mejores según la probabilidad.
- «top_p»: límite de opciones de palabras candidatas a una probabilidad acumulada hasta p.
- «length_penalty»: controla cuánto se penaliza la generación de texto más larga.
- «num_return_sequences»: número de respuestas generadas por cada prompt.
- «stop_token»: token de parada para la respuesta generada.
- Ejemplos de entrenamiento: calidad y relevancia de los ejemplos de entrenamiento.
- «repetition_penalty»: penaliza la repetición de ciertas palabras o secuencias de tokens.
- «num_beams»: número de respuestas generadas para cada prompt en una búsqueda con beam search.
- «diversity_penalty»: controla cuánto se penaliza la repetición de la misma respuesta para diferentes prompts.
- «early_stopping»: detiene la generación de texto tempranamente cuando la probabilidad de la respuesta generada cae por debajo de cierto umbral.
- «max_new_tokens»: cantidad máxima de tokens nuevos que se pueden incluir en la respuesta generada.
- «nucleus_sampling»: limita las opciones de palabras candidatas a un conjunto fijo de palabras con una probabilidad acumulada hasta cierto valor.
El parámetro «sentiment» en ChatGPT se utiliza para generar respuestas que tengan un tono específico en función del sentimiento del texto de entrada. Este parámetro es opcional y puede tener un valor positivo, negativo o neutro.
- Valor positivo: cuando se establece un valor positivo para el parámetro «sentiment», ChatGPT genera respuestas con un tono optimista y alegre, y puede ser útil para conversaciones motivadoras o inspiradoras.
- Valor negativo: cuando se establece un valor negativo para el parámetro «sentiment», ChatGPT genera respuestas con un tono pesimista o triste, y puede ser útil para conversaciones sobre temas sensibles o emotivos.
- Valor neutro: cuando se establece un valor neutro para el parámetro «sentiment», ChatGPT genera respuestas con un tono neutral y objetivo, y puede ser útil para conversaciones formales o informativas.
A continuación, te proporciono un ejemplo de cómo se puede utilizar el parámetro «sentiment» en ChatGPT:
- Texto de entrada: «Acabo de tener un gran día en el parque. El sol brillaba, los pájaros cantaban y me encontré con un amigo que no veía desde hace mucho tiempo».
- Ejemplo 1: Sin el parámetro «sentiment». Respuesta generada por ChatGPT: «Me alegra que hayas tenido un buen día en el parque. Espero que sigas disfrutando del buen tiempo».
- Ejemplo 2: Con el parámetro «sentiment» establecido en «positivo». Respuesta generada por ChatGPT: «Qué maravilloso escuchar que tuviste un gran día en el parque. Parece que el sol y los pájaros te llenaron de energía positiva. ¡Espero que continúes teniendo días así de buenos!».
- Ejemplo 3: Con el parámetro «sentiment» establecido en «negativo». Respuesta generada por ChatGPT: «Espero que tengas más días como este en el futuro, aunque sé que a veces puede ser difícil. Pero por ahora, permíteme disfrutar contigo del buen día que tuviste en el parque».
En este ejemplo, podemos ver cómo el parámetro «sentiment=positive» puede afectar el tono de las respuestas generadas por ChatGPT. Cuando se establece en «positivo», la respuesta es más alegre y entusiasta, mientras que cuando se establece en «negativo», la respuesta es más reflexiva y empática. En ambos casos, la respuesta de ChatGPT está relacionada con el texto de entrada, pero su tono y estilo difieren según el valor del parámetro «sentiment».
Es importante tener en cuenta que el parámetro «sentiment» es opcional y que ChatGPT no siempre puede identificar el sentimiento del texto de entrada de manera precisa. Además, el tono de las respuestas generadas por ChatGPT también puede depender de otros factores, como el tema de la conversación, el contexto y la personalidad del usuario que interactúa con el modelo.
ChatGPT utiliza un conjunto de tokens que se han predefinido en su modelo preentrenado. Estos tokens incluyen palabras comunes en el idioma inglés y otros símbolos especiales que se utilizan para ayudar a ChatGPT a procesar y generar texto.
Algunos de los tokens más comunes utilizados en ChatGPT son:
- Palabras: cada palabra en el texto es un token separado. Por ejemplo, «hola», «¿cómo», «estás», «bien», etc.
- Puntuación: los signos de puntuación como comas, puntos y signos de interrogación también son tokens separados. Por ejemplo, «,», «.», «?», etc.
- Símbolos especiales: hay varios símbolos especiales que se utilizan en ChatGPT para indicar diferentes cosas. Algunos ejemplos incluyen:
- <BOS> (beginning of sequence): se utiliza para indicar el inicio de una secuencia de texto.
- <EOS> (end of sequence): se utiliza para indicar el final de una secuencia de texto.
- <PAD> (padding): se utiliza para completar las secuencias de texto más cortas con ceros.
- <UNK> (unknown): se utiliza para indicar palabras o símbolos desconocidos o no reconocidos por ChatGPT.
- Abreviaturas y acrónimos: las abreviaturas y acrónimos son comunes en el lenguaje de chat y se pueden utilizar como tokens en ChatGPT. Por ejemplo, «tbh» (to be honest), «idk» (I don’t know), etc.
- Emojis: los emojis son una forma popular de comunicación en las conversaciones informales, por lo que también se pueden utilizar como tokens en ChatGPT. Por ejemplo, 😊, ❤️, 🤔, etc.
- Expresiones coloquiales: las expresiones coloquiales y jergas también se pueden utilizar como tokens para que ChatGPT genere respuestas más naturales y relevantes en las conversaciones informales. Por ejemplo, «no worries», «cool beans», «let’s hang out», etc.
Los símbolos de puntuación
Los símbolos de puntuación, como el dos puntos (:), se utilizan en ChatGPT para indicar diferentes cosas en las conversaciones de chat. A continuación, te proporciono algunos ejemplos de cómo se puede utilizar el símbolo de dos puntos en ChatGPT:
- Introducir una explicación o aclaración: El dos puntos se puede utilizar para introducir una explicación o aclaración sobre algo que se ha dicho anteriormente en la conversación. Por ejemplo: «No puedo salir esta noche: tengo que estudiar para un examen».
- Introducir una lista: El dos puntos se puede utilizar para introducir una lista de elementos. Por ejemplo: «Tengo que ir al supermercado: leche, pan, huevos y queso».
- Introducir una cita o respuesta: El dos puntos se puede utilizar para introducir una cita o respuesta a una pregunta en la conversación. Por ejemplo: «¿Cuál es tu color favorito?: Azul».
En resumen, el dos puntos y otros símbolos de puntuación se utilizan en ChatGPT para ayudar a estructurar y clarificar la conversación, introducir explicaciones, aclaraciones, listas, citas y respuestas.
- Punto (.) : se utiliza para indicar el final de una oración o idea completa. Por ejemplo: «Me gusta mucho viajar. He visitado varios países en los últimos años».
- Coma (,) : se utiliza para separar elementos dentro de una oración o lista. Por ejemplo: «Me gusta ir al cine, leer libros y escuchar música».
- Punto y coma (;) : se utiliza para separar elementos en una lista cuando los elementos contienen comas. Por ejemplo: «Tengo que comprar verduras, como lechuga y tomates; frutas, como manzanas y naranjas; y carne, como pollo y ternera».
- Signos de interrogación (?) y exclamación (!) : se utilizan para indicar preguntas o expresiones de sorpresa, entusiasmo o emoción en la conversación. Por ejemplo: «¿Cómo estás?», «¡Qué sorpresa verte aquí!».
- Guion (-) : se utiliza para unir palabras o separar sílabas en una palabra. Por ejemplo: «una mujer de mediana edad», «auto-retrato».
- Paréntesis () : se utilizan para indicar información adicional o explicaciones en la conversación. Por ejemplo: «Mi amigo (que vive en Madrid) vendrá a visitarme este fin de semana».
Estos son algunos de los símbolos de puntuación más comunes utilizados en ChatGPT para ayudar a estructurar y clarificar la conversación.