Dechiffrierung von LLM- Parametern, Teil 1: Temperatur

MM-Parameter

Wie jeder Maschinenlern-Modelle, auch große Sprachmodelle haben verschiedene Parameter, die die Varianz der generierten Textausgaben steuern. Wir haben einen mehrteiligen Serie begonnen, um den Einfluss dieser Parameter detailliert zu erklären. Wir werden mit der perfekten Balance in der Inhaltserstellung abschließen, indem wir alle in unserer mehrteiligen Serie diskutierten Parameter verwenden.

Willkommen beim ersten Teil, wo wir den bekanntesten Parameter, „Temperatur,“ diskutieren.

Temperatur

Wenn das Ziel die Kontrolle der Randomisität der Voraussagen ist, dann ist die Temperatur das richtige für Sie. Niedrige Temperaturwerte machen die Ausgabe deterministischer, während höhere Werte kreativer werden, indem diverse Ergebnisse zugelassen werden.

Lassen Sie uns die Temperatur in Aktion sehen, indem wir folgenden Code und Ausgabe verwenden. Um die Bedeutung einfach zu präsentieren, haben wir beschlossen, hugging face transformers und das GPT2-Model insbesondere zu verwenden.

Python

 

Ausgabe:

PowerShell

 

Lassen Sie uns die Ausgabe verstehen:

  • Niedrige Temperatur (0,3): Das Modell wird sich auf die am ehesten zu erwartenden Wortwahl konzentrieren. Wenn Präzision und Konsistenz für Sie wichtig sind, dann geben Sie die Temperatur in diesem Bereich ein. Halten Sie jedoch im Hinterkopf, dass das Modell möglicherweise in die Wiederholung ähnlicher Phrasen abgleitet, wie es unsere Ausgabe hier gezeigt hat.
  • Mittlere Temperatur (0,5): Diese Temperatur lässt perfekt Coherence und Kreativität balancieren. Es ist eine hervorragende Mitte, wenn Sie eine angemessene Variation haben wollen, ohne Struktur zu verlieren. Wie Sie in der Ausgabe sehen können, wurde ein bisschen Balance hinzugefügt, aber es könnte immer noch ein bisschen Wiederholung in der Ausgabe zu beobachten sein.
  • Hohe Temperatur (0,9): Diese Temperatur lässt die LLM so kreativ wie möglich werden. Wie Sie sehen können, unterscheidet sich diese Ausgabe von den vorherigen zwei, bringt eine Menge Zufälligkeit und Variation im Inhalt mit.

Der oben genannte Beispiel legt eine grundlegende Verständnis der Temperatur fest. Lassen Sie uns uns jetzt in einer etwas detaillierteren Weise mit ein paar Anwendungsfälle anschauen: „Kreatives Erzählungsgenerieren“ und „Technische Erklärungen.“

Lassen Sie uns das mit dem folgenden Code verstehen, wie die Temperatur die oben genannten 2 Anwendungsfälle beeinflusst.

Python

 

Ausgabe:

PowerShell

 

Nun lassen Sie uns die Ausgabe für kreatives Erzählungsgenerieren und technische Erklärungen aufgrund der Temperatursetzungen und wie die Ausgabe beeinflusst wurde, break und analysieren. Außerdem werden wir beobachten, wie eine Temperatursetzung perfekt für einen Anwendungsfall ist und das genaue Gegenteil für den anderen Anwendungsfall macht.

Kreatives Erzählungsgenerieren

  • Niedrige Temperatur (negative Auswirkung):Wie Sie sehen können, ist die Geschichte Ausgabe sehr repetitiv und fehlt an Vielfalt. Dieser Ergebnis ist für eine kreative Aufgabe nicht zufriedenstellend und die extreme Wiederholung durch die Unfähigkeit des Modells, neue und innovative Ideen einzubringen, macht es für Erzählungen unerwünscht.
  • Hohe Temperatur (Perfekter Effekt): Wie Sie aus dem Output sehen können, nimmt die Geschichte interessante Richtungen und ist sehr kreativ. Der Output fügt der Geschichte auch mehrere Aspekte hinzu, was sie vielfältig, phantasievoll und perfekt für innovative Erzählungen macht.

Technische Erklärung

  • Hohe Temperatur (Negativer Effekt): Es ist wichtig zu erinnern, dass der Aufbau von Tatsachengenauigkeit sehr wichtig ist für eine Anwendung wie eine technische Erklärung. Hohe Temperatur führt zu viel Zufall und weniger wahrscheinlichen Wörtern, die in die generierte Inhalte eingefügt werden, was sie für technisches Schreiben unzufriedenstellend macht. Das gleiche kann auch aus dem obenstehenden Output abgeleitet werden, dass es zu vage ist und irrelevante Ideen enthält.
  • Adaptierte Temperatur (Perfekter Effekt): Wir haben die Temperatur auf einen Schalter gelegt, der einen perfekten Ausgleich für die Generierung von technischen Inhalten findet. Wie Sie sehen können, ist der Output momentan viel geordneter. Bei dieser Temperatur kann das Modell Vermeidung von Wiederholungen wie bei niedriger Temperatur und Verlust von Kohärenz wie bei hoher Temperatur erreichen.

Fazit

Sie haben alle Wege gesehen, wie Temperatur Inhaltserzeugung beeinflussen und bei welcher Temperaturstellung es perfekt für welche Anwendung ist. Außerdem sollten Sie beachten, dass diejustierung der Temperatur nicht das Alles und Alles der Inhaltserzeugung ist; Sie werden auch andere Parameter justieren müssen. Wir werden das alles in den bevorstehenden Artikeln der Reihe anschauen.

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature