Descodificación de parámetros de LLM, Parte 2: Top-P (Sampling del Núcleo)

Párametros del MLM

Como cualquier modelo de aprendizaje automático, los grandes modelos de lenguaje tienen varios parámetros que controlan la variación de la salida de texto generada. Hemos iniciado una serie multi-parte para explicar detalladamente el impacto de estos parámetros. Concluiremos alcanzando un equilibrio perfecto en la generación de contenido utilizando todos estos parámetros discutidos en nuestra serie multi-parte.

Bienvenido al segundo parte, donde discutimos otro parámetro bien conocido, la “Top-P”.

Top-P (Elección de Núcleo)

Si el objetivo es controlar la diversidad de la salida del modelo, entonces Top-P es la opción ideal para ti. Un Top-P bajo obliga al modelo a usar las palabras más probables, mientras que un Top-P alto obliga al modelo a usar palabras más diversas, aumentando la creatividad.

Veamos la acción de Top-P con el siguiente código y salida.

Python

 

Salida:

PowerShell

 

Ahora vamos a entender la salida.

  • Top-P 0.1 – Muy Conservador:Como el modelo selecciona las opciones de palabra siguiente más probables del 10%, hay mucha repetición en el contenido generado. Por lo tanto, esta respuesta carece de diversidad y es también insuficientemente informativa en la mayoría de los casos.
  • Top-P 0.3 – Conservador: El modelo selecciona de las primeras 30% de las opciones de palabra más probables, por lo que es un poco menos conservador que el ajuste anterior de Top-P. Como puede ver en la salida, esto no ha mejorado la generación de contenido, y el prompt se repitió a lo largo de la completación. En este caso, la repetición del prompt significa que la continuación más probable después del prompt para el modelo parece ser el propio prompt.
  • Top-P 0.5 – Equilibrado:  Aquí es donde vemos que el modelo enumera por primera vez algunas estrategias numeradas. Aún se observa alguna repetición en este ajuste también. Pero lo importante es que en este ajuste de Top-P, el modelo comienza a incorporar una gama más amplia de palabras. La salida es una mezcla de consejos estándar con algunas inconsistencias. Este valor de Top-P permite una mejor creatividad pero aún lucha con la profundidad de la información.
  • Top-P 0.7 – Creativo: En este caso, el modelo puede seleccionar de una gama más amplia de palabras, y como puede ver, la respuesta se está desplazando hacia un estilo narrativo. El contenido es más creativo ya que ahora se involucra en un escenario donde una persona está lidiando con estrés. El lado negativo es la pérdida de enfoque, ya que el énfasis no fue en manejar el estrés sino en las dificultades en afrontar el estrés.
  • Top-P 0.9 – Muy Creativo: En este ajuste, el modelo tiene acceso a una amplia gama de vocabulario y ideas, incluyendo palabras y conceptos menos probables. Este ajuste permite que el modelo use un lenguaje más expresivo. Otra vez, el lado negativo de ser muy creativo es que el modelo se desvía del prompt en la búsqueda de producir contenido rico y variado.

Lo importante que se destaca de la ejercitación anterior es cómo el contenido cambia con el cambio en la configuración de Top-P. También nos da una idea de que este parámetro no es el único que debe ser manejado para variar el contenido y su relevancia.

Ahora, veamos el impacto de Top-P en un par de casos de uso, justo como la parte anterior de esta serie sobre “Generación Creativa de Historias” y “Explicación Técnica”.

Python

 

Salida:

PowerShell

 

Ahora veamos y analizemos la salida para la generación creativa de historias y la explicación técnica basada en las configuraciones de Top-P y cómo la salida fue afectada.

Para demostrar efectivamente el impacto de Top-P, hemos integrado mejores prompts para dirigir la salida de manera que el impacto sea fácil de observar.

Generación Creativa de Historias

  • Bajo Top-P (Impacto Negativo):Como pueden ver con el bajo Top-P, el modelo se ve restringido al uso de palabras o frases y, por lo tanto, causa repetición y redundancia. La creatividad también se limita en este caso, ya que el modelo intenta no introduce ideas nuevas. Sin embargo, si notan, se mantiene aún la fluidez lógica y el modelo se mantiene en el tema, lo cual es típico de valores bajos de Top-P.
  • Alto Top-P (Impacto Perfecto):En este caso, el modelo introduce conceptos nuevos y añade un ángulo creativo a la narración. Se utiliza un vocabulario más amplio, agregando profundidad y riqueza al texto. Sin embargo, debido a la creatividad aumentada, se ha reprimido la fluidez lógica.

La contraste entre las dos narrativas muestra claramente el impacto de Top-P, haciendo fácil comprender cómo afecta a la escritura creativa.

Explicación Técnica

  • Alta Top-P (Impacto Negativo):Como puede verse, una alta Top-P tiene un impacto negativo en las explicaciones técnicas, ya que impide un flujo lógico y distrae del tema. El modelo también introduce información irrelevante que no pertenece a la explicación.
  • Top-P Óptimo (Impacto Perfecto):La explicación es más coherente y cercana al tema con un Top-P óptimo. El contenido se alinea más con el prompt y equilibra bien la precisión y la expresión. La confiabilidad de la información se mejora porque el modelo se limita a palabras más probables.

Conclusión

Con este experimento, hemos exitosamente mostrado la importancia del parámetro Top-P para controlar la randomidad y la creatividad del texto generado. Primero examinamos un solo prompt y cómo varía la salida con diferentes Top-P, y luego adoptamos un enfoque basado en casos de uso para ver cómo Top-P controla la salida según el caso de uso.

Sin embargo, como se ha notado en partes anteriores y en esta parte de la serie, individualmente, cada parámetro no hace justicia a la calidad de la generación de contenido. Es por eso que es fundamental considerar el impacto de todos estos parámetros, y lo haremos en la parte final de esta serie.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p