Décodage des paramètres de LLM, partie 2 : Top-P (Sélection du noyau)

Paramètres des GLLM

Comme pour tout modèle d’apprentissage automatique, les grands modèles de langue disposent de divers paramètres qui contrôlent la variance de la sortie de texte générée. Nous avons démarré une série en plusieurs parties pour expliquer en détail l’impact de ces paramètres. Nous conclurons en établissant un équilibre parfait dans la génération de contenu en utilisant tous les paramètres discutés dans notre série en plusieurs parties.

Bienvenue dans la deuxième partie, où nous discutons d’un autre paramètre connu : « Top-P ».

Top-P (Sélection du Noyau)

Si l’objectif est de contrôler la diversité de la sortie du modèle, alors Top-P est l’option idéale pour vous. Un Top-P plus bas force le modèle à utiliser les mots les plus probables, tandis qu’un Top-P plus élevé force le modèle à utiliser des mots plus divers, augmentant la créativité.

Examinons le Top-P en action avec le code et la sortie suivants.

Python

 

Sortie :

PowerShell

 

Maintenant, essayons de comprendre la sortie.

  • Top-P 0.1 – Très conservateur :Étant donné que le modèle sélectionne parmi les 10 % des choix de mot suivant les plus probables, il y a beaucoup de répétitions dans le contenu généré. Par conséquent, cette réponse manque de diversité et est également presque toujours non informatif.
  • Top-P 0.3 – Conservateur : Le modèle sélectionne parmi les 30% supérieurs des choix de mot probables suivants, donc il est légèrement moins conservateur que le précédent paramètre Top-P. Comme vous pouvez le voir à l’extrant, cela n’a pas amélioré la génération de contenu, et le prompt a été répété à travers la complétion. Dans ce cas, la répétition du prompt signifie que la suite la plus probable après le prompt pour le modèle semble être le prompt même.
  • Top-P 0.5 – Équilibré :C’est ici qu’il apparaît pour la première fois que le modèle énumère certaines stratégies numérotées. Vous voyez toujours une certaine répétition dans ce paramètre également. Mais le point important est que à ce niveau de Top-P, le modèle commence à intégrer un plus large éventail de mots. L’extrant est une combinaison de conseils standards avec quelques incohérences. Cette valeur de Top-P permet une amélioration de la créativité mais continue de souffrir d’une profondeur d’information insuffisante.
  • Top-P 0.7 – Créatif : Dans ce cas, le modèle peut sélectionner un plus large éventail de mots, et comme vous pouvez le voir, la réponse est progressivement orientée vers un style narratif. Le contenu est plus créatif car il met maintenant en scène une situation où une personne affronte des stresseurs. Le désavantage est la perte de focus, car l’accent n’est pas mis sur la gestion du stress mais sur les difficultés à faire face au stress.
  • Top-P 0.9 – Très Créatif : Dans ce réglage, le modèle a accès à un large éventail de vocabulaire et d’idées, y compris des mots et concepts moins probables. Ce réglage permet au modèle d’utiliser une langue plus expressive. Encore une fois, le désavantage de la créativité excessive est que le modèle dérive du prompt dans sa quête de produire un contenu riche et varié.

Le point majeur à noter à partir de l’exercice précédent est comment le contenu change avec le changement du paramètre Top-P. Il nous donne également l’idée que ce paramètre n’est pas le seul qui doit être traité pour une variation dans le contenu et son pertinence.

Maintenant, regardons l’impact de Top-P sur quelques cas d’utilisation, tout comme dans la partie précédente de cette série sur « La génération de récits créatifs » et « Les explications techniques ».

Python

 

Sortie :

PowerShell

 

Maintenant, parsemmons et Analysez la sortie pour la génération de récits créatifs et les explications techniques en fonction des réglages de Top-P et de l’impact sur la sortie.

Pour effectivement démontrer l’impact de Top-P, nous avons intégré des prompts améliorés pour déterminer la sortie de manière à ce que l’impact soit facilement observable.

Génération de récits créatifs

  • Top-P bas (Impact négatif) :Comme vous pouvez le voir avec le bas Top-P, le modèle est limité à l’utilisation de mots ou de phrases, ce qui entraîne de la répétition et de la redondance. La créativité est également limitée dans ce cas, car le modèle essaye de ne pas introduire de nouvelles idées. Mais si vous remarquez, la logique de la narration est toujours maintenue et le modèle reste sur le sujet, ce qui est typique de valeurs basses de Top-P.
  • Top-P élevé (Impact parfait) :Dans ce cas, le modèle présente de nouveaux concepts et ajoute une composante créative à la narration. Une plus grande variété de vocabulaire est utilisée, ajoutant de la profondeur et de la richesse au texte. Cependant, à cause de la créativité accrue, la logique de la narration a été compromise.

La contraste entre les deux narrations montre clairement l’impact de Top-P, ce qui facilite la compréhension de la manière dont il affecte la rédaction créative.

Explication technique

  • Haute Top-P (Impact négatif) : Comme vous pouvez le voir, une haute Top-P a un impact négatif sur les explications techniques en empêchant un flux logique et en dérivant du sujet. Le modèle ajoute également des informations non pertinentes, ce qui n’est pas pertinent à l’explication.
  • Top-P optimale (Impact parfait) : Les explications sont plus cohérentes et proches du sujet avec une Top-P optimale. Le contenu se aligne mieux sur le prompt et balance bien l’exactitude et l’expression. La fiabilité des informations est améliorée car le modèle est limité aux mots plus probables.

Conclusion

Avec cette expérience, nous avons réussi à montrer l’importance du paramètre Top-P pour contrôler la randomness et la créativité du texte généré. Nous avons d’abord examiné un seul prompt et comment l’output varie avec différentes valeurs de Top-P, puis adopté une approche plus basée sur les cas d’utilisation pour comprendre comment Top-P contrôle l’output en fonction du cas d’utilisation.

Cependant, à travers les parties précédentes et cette partie de la série, nous avons constaté que individuellement, chaque paramètre ne permet pas une qualité de génération de contenu suffisante. C’est pourquoi il est essentiel de considérer l’impact de tous ces paramètres, ce que nous ferons comme dernière partie de cette série.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p