Descifrar los Parámetros de LLM, Parte 1: Temperatura

Parámetros de MLM

Como cualquier modelo de aprendizaje automático, los modelos de gran escala de lenguaje tienen varios parámetros que controlan la varianza de la salida de texto generada. Hemos iniciado una serie multíparte para explicar detalladamente el impacto de estos parámetros. Terminaremos alcanzando un equilibrio perfecto en la generación de contenido utilizando todos estos parámetros discutidos en nuestra serie multíparte.

Bienvenido al primer parte, donde discutimos el parámetro más conocido, la “Temperatura”.

Temperatura

Si el objetivo es controlar la aleatoriedad de las predicciones, entonces la temperatura es lo que buscas. Valores de temperatura bajos hacen que la salida sea más determinista, mientras que valores altos permitirán resultados diversos, haciendo que sea más creativo.

Veamos la temperatura en acción utilizando el siguiente código y salida. Para presentar la importancia de manera sencilla, hemos elegido utilizar los transformers de hugging face y el modelo GPT2 en particular.

Python

 

Salida:

PowerShell

 

Veamos la salida:

  • Temperatura Baja (0.3):El modelo se centrará en las opciones de palabra más probables. Si la precisión y la consistencia son importantes para ti, entonces considera la temperatura en este rango. Sin embargo, tenga en mente que el modelo podría quedarse atascado repitiendo frases similares, como es el caso con nuestra salida aquí.
  • Temperatura Media (0.5): Esta temperatura equilibra perfectamente coherencia y creatividad. Es un excelente terreno intermedio si quieres una cantidad razonable de variación sin perder estructura. Como puede ver en la salida, se ha añadido un poco de equilibrio, sin embargo, aún puede observar alguna repetición en la salida.
  • Alta Temperatura (0.9): Esta temperatura hace explotar la MLL para que sea tan creativa como sea posible. Como puede ver, esta salida difiere de las dos anteriores, introduciendo mucha aleatoriedad y variación en el contenido.

El ejemplo anterior establece un entendimiento fundamental de la temperatura. Vamos a mirarlo de forma un poco más detallada con un par de casos de uso: “Generación de Historias Creativas” y “Explicación Técnica”.

Veamos esto con el siguiente código para comprender cómo la temperatura afecta los dos casos de uso anteriores.

Python

 

Salida:

PowerShell

 

Ahora vamos a detener y analizar la salida para la generación de historias creativas y la explicación técnica en función de los ajustes de temperatura y cómo la salida fue afectada. Además, observaremos cómo un ajuste de temperatura funciona perfectamente para un caso de uso y lo contrario para otro caso de uso.

Generación de Historias Creativas

  • Temperatura Baja (Impacto Negativo): Como puede ver, la salida de la historia es muyrepetitiva y carece de variedad. Este resultado no es satisfactorio para una tarea creativa y larepetitividad extrema causada por la incapacidad de la modelo para introducir ideas novedosas e innovadoras hace que sea deseable para la narración de historias.
  • Alta Temperatura (Impacto Perfecto): Como puede ver从 la salida, la historia toma direcciones interesantes y es muy creativa. La salida también agrega múltiples aspectos a la historia, lo que la hace variada, imaginativa y perfecta para una narrativa innovadora.

Explicación Técnica

  • Alta Temperatura (Impacto Negativo): Es importante recordar que mantener la precisión factual es muy importante para un caso de uso como una explicación técnica. La alta temperatura conduce a mucha aleatoriedad y a palabras menos probables que se introducen en el contenido generado, lo que lo hace insatisfactorio para la escritura técnica. Lo mismo se puede inferir de la salida anterior que es demasiado vaga e incluye ideas irrelevantes.
  • Temperatura Ajustada (Impacto Perfecto): Hemos ajustado la temperatura a un ajuste que consigue un equilibrio perfecto para la generación de contenido técnico. Como puede ver, la salida es mucho más organizada ahora. En este ajuste de temperatura, el modelo evita la repetición como lo hace a temperaturas bajas y no pierde coherencia como ocurre a temperaturas altas.

Conclusión

Ha visto todas las formas en que la temperatura puede afectar la generación de contenido y qué ajuste de temperatura es perfecto para cada caso de uso. Además, note que ajustar la temperatura no es lo único para la generación de contenido; también tendrá que ajustar otros parámetros. Vamos a ver todo eso en los próximos artículos de la serie.

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature