Dechiffrierung von LLM-Parameter, Teil 2: Top-P (Kernsampling)

MM-Parameter

Wie jeder Maschinenlern-Modelle hat auch große Sprachmodelle verschiedene Parameter, die die Varianz der generierten Textausgaben steuern. Wir haben eine mehrteilige Serie begonnen, um den Einfluss dieser Parameter detailliert zu erklären. Wir werden abschließend den perfekten Gleichgewicht zwischen Inhaltsgenerierung erzielen, indem wir alle in unserer mehrteiligen Reihe behandelten Parameter verwenden.

Willkommen beim zweiten Teil, wo wir über ein anderes bekanntes Parameter, „Top-P“ sprechen.

Top-P (Kernauswahl)

Wenn das Ziel die Vielfalt der Modelleausgaben steuern ist, dann ist Top-P das richtige für Sie. Ein niedriger Top-P zwingt das Model dazu, die am ehesten zu erwartenden Wörter zu verwenden, während ein hoher Top-P das Model dazu bringt, vielfältigere Wörter zu verwenden, was die Kreativität erhöht.

Lassen Sie uns Top-P in Aktion sehen, indem wir folgenden Code und Output verwenden.

Python

 

Ausgabe:

PowerShell

 

Nun lassen Sie uns die Ausgabe verstehen.

  • Top-P 0.1 – Sehr konservativ: Da das Model aus den top 10% der wahrscheinlichsten folgenden Wortwahlauswahl auswählt, gibt es viele Wiederholungen in der generierten Inhalte. Daher fehlt dieser Ausgangsbeitrag Vielfalt und ist auch in der Regel uninformativ.
  • Top-P 0.3 – Konservativ: Der Modell wählt aus den obersten 30% der wahrscheinlichsten folgenden Wortwahl, somit ist er etwas weniger konservativ als die vorherige Top-P Einstellung. Wie Sie aus dem Ergebnis sehen können, hat das keine Verbesserung der Inhaltserzeugung gebracht und der Auftrag wurde immer wieder im fertigen Inhalt wiederholt. In diesem Fall bedeutet die Wiederholung des Auftrags, dass die am wahrscheinlichsten folgende Fortsetzung nach dem Auftrag für das Modell selbst der Auftrag selbst ist.
  • Top-P 0.5 – Ausgewogen: Hier sehen Sie das Modell erstmals einige nummerierte Strategien auflisten. Es gibt immer noch eine gewisse Wiederholung in dieser Einstellung. Aber das Ergebnis ist, dass bei dieser Top-P Einstellung das Modell einen breiteren Bereich von Wörtern aufnehmen beginnt. Die Ausgabe ist eine Mischung vonStandard-Ratschlägen mit einigen Unstimmigkeiten. Dieser Top-P-Wert ermöglicht eine verbesserte Kreativität, aber es besteht immer noch eine Schwierigkeit mit der Tiefe der Information.
  • Top-P 0.7 – Kreativ: In diesem Fall kann das Modell aus einem breiteren Bereich von Wörtern wählen, und wie Sie sehen können, geht die Reaktion in Richtung einer narrativen Art und Weise. Der Inhalt ist kreativer, da er jetzt eine Situation einbezieht, in der ein Mensch mit Stress befasst ist. Der Nachteil besteht darin, dass die Fokussierung verloren geht, da der Schwerpunkt nicht auf die Stressbewältigung lag, sondern auf den Schwierigkeiten, die mit der Stressbewältigung zu kämpfen waren.
  • Top-P 0.9 – Sehr Kreativ: In dieser Einstellung hat das Modell Zugriff auf einen breiten Bereich von Wörtern und Ideen, einschließlich weniger wahrscheinlicher Wörter und Konzepte. Diese Einstellung ermöglicht dem Modell die Verwendung von expressiveren Sprache. Erneut ist der Nachteil der starken Kreativität, dass das Modell vom Auftrag abweicht, um reichhaltige und variantenreiche Inhalte zu produzieren.

Der wichtigste Punkt, den wir aus dem oben genannten Experiment ableiten können, ist die Änderung des Inhalts mit der Änderung der Top-P Einstellung. Es gibt auch eine Ahnung, dass dieser Parameter nicht der einzige ist, der für die Variation des Inhalts und seiner Relevanz behandelt werden muss.

Nun lassen Sie uns uns anschauen, wie sich Top-P auf einige Anwendungsfälle auswirkt, genauso wie im letzten Teil dieser Reihe zu „kreativer Geschichte Generierung“ und „technischer Erklärung“.

Python

 

Ausgabe:

PowerShell

 

Lassen Sie uns nun die Ausgabe für kreatives Storygenerieren und technische Erklärungen aufgrund der Top-P Einstellungen und wie die Ausgabe beeinflusst wurde, analysieren und zusammenbrechen.

Um die Auswirkungen von Top-P effektiv zu demonstrieren, haben wir bessere Anweisungen integriert, um das Ergebnis in eine Richtung zu lenken, in der die Auswirkungen leichter beobachtet werden können.

Kreatives Storygenerieren

  • Niedrige Top-P (Negativer Einfluss): Wie Sie sehen können, mit der niedrigen Top-P, ist das Modell auf die Verwendung von Wörtern oder Phrasen beschränkt und verursacht somit Wiederholungen und Redundanzen. Die Kreativität ist in diesem Fall ebenfalls begrenzt, da das Modell versucht, keine neuen Ideen einzubringen. Aber wenn Sie beobachten, wird der logische Fluss dennoch aufrechterhalten und das Modell bleibt auf das Thema fokussiert, was typisch für niedrige Top-P Werte ist.
  • Hohe Top-P (Perfekter Einfluss): In diesem Fall führt das Modell neue Konzepte ein und bringt eine kreative Note zur Erzählung. Eine breitere Vokabular wird verwendet, was den Text tiefgründiger und reicher macht. Allerdings wurde die logische Fluss durch die verstärkten Kreativität eingeschränkt.

Der Kontrast zwischen den beiden Erzählungen zeigt klarmachen, wie der Top-P Einfluss, es einfach zu verstehen, wie er die kreative Schreibweise beeinflusst.

Technische Erklärung

  • Hohe Top-P (Negativer Einfluss):Wie Sie sehen können, hat eine hohe Top-P einen negativen Einfluss auf technische Erklärungen, indem sie den logischen Fluss behindert und vom Thema abweicht. Das Modell fügt auch unerwünschte Informationen ein, die nicht mit der Erklärung in Verbindung stehen.
  • Optimale Top-P (Perfekter Einfluss):Mit optimaler Top-P ist die Erklärung kohärenter und näher am Thema. Der Inhalt entspricht mehr dem Auftrag und besitzt eine gute Balance zwischen Genauigkeit und Ausdruck. Die Glaubwürdigkeit der Informationen wird verbessert, weil das Modell auf mehr wahrscheinliche Wörter begrenzt wird.

Fazit

Mit dieser Experimentierung haben wir erfolgreich die Bedeutung des Top-P-Parameters in der Kontrolle der Randomheit und der Kreativität der generierten Texte gezeigt. Wir untersuchten zunächst ein einzelnes Anfragezeichen und wie sich die Ausgabe mit unterschiedlicher Top-P ändert und anschließend einen eher anwendungsbasierten Ansatz, wie Top-P die Ausgabe basierend auf dem Anwendungsfall steuert.

Allerdings haben wir anhand der vorhergehenden Teile und dieser Serie erkannt, dass einzelne Parameter selbst nicht genügen, um die Qualität der Inhaltsgenerierung zu gewährleisten. Deshalb ist es wichtig, den Einfluss aller dieser Parameter zu betrachten, was wir im abschließenden Teil dieser Serie tun werden.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p