LLMパラメーターの解码、第1部分:温度

LLM Parameters

どの機械学習モデルも同様に、大規模な言語モデルには、生成されるテキストの変异性を制御するための様々なパラメータが存在します。私たちはこれらのパラメータについて詳細に説明するためのマルチパートシリーズを始めました。私たちは、このマルチパートシリーズで議論したすべてのパラメータを使用して、コンテンツ生成に最適なバランスをとることに着手します。

これは最初のパートで、最も知られたパラメータ「温度」について話します。

温度

予測の乱数を制御するためには、温度が適切な選択肢です。低温値は出力を決定性にすることが多く、高温値は Creativityを高めて様々な結果を许すことになります。

以下のコードと出力を使って、温度の作用を見てみましょう。重要性を簡単に示すために、hugging face transformersと特にGPT2モデルを使用しました。

Python

 

出力:

PowerShell

 

以下で出力を理解しましょう。

  • 低温度 (0.3): モデルは最も確実な単語選択に集中するようになります。精度と一致性が重要な場合は、この範囲の温度を指定することができます。しかし、このような出力でモデルが似たような phrasesを繰り返すかもしれません。
  • 中温(0.5):この温度は一贯性と創造性を完璧にバランスしています。 Structureを失わずに一定の变异を希望する場合に最適な中间地帯です。出力にあるように、少しのバランスが追加されましたが、出力に重复があることがわかります。
  • 高温(0.9):この温度はLLMを可能な限り創造的にするために爆発的にします。以前の2つの出力とは異なり、内容的に多くの乱雑さと变异を持ちます。

上記の例は温度に基づく基本理解を設定します。次に、「創造的な物語生成」と「技術的な説明」の2つの使用例でより詳細に見ていきましょう。

以下のコードを使って、温度が上記2つの使用例に影響を与える方法を理解してください。

Python

 

Output:

PowerShell

 

次に、創造的な物語生成と技術的な説明に基づいて、温度設定によって出力が影響されることを解釈し、一度に行うことのできる使用例に最適な温度設定があること、およびそれぞれに逆の結果をもたらすことを調査しましょう。

創造的な物語生成

  • 低温度(-影響):ご覧のように、物語出力は高く重複しており、变异が乏しいということがわかります。この結果は創造的なタスクにとって満足できません。モデルが新しいアイデアを導入することができず、极度的な重複性によって物語の生成に不適切です。
  • 高温(完璧な影響)出力からご覧のように、物語は面白い方向に展开し、非常に創造的です。出力は物語に多くの面白い側面を付け加えることで、それを变异的で、想象に富んだ物語を語るのに完璧に適しています。

技術的な説明

  • 高温(否定的な影響)事実の正確性を維持することは、技術的な説明のような使用案例において非常に重要です。高温は、生成されるコンテンツには多くの乱雑さをもたらし、予想外の語を導入することになり、技術的な書き方には不適切です。上の出力からも推測することができ、あまりにも抽象的で、不適切なアイデアを含んでいます。
  • 調整された温度(完璧な影響)私たちは、技術的なコンテンツを生成するための最適なバランスを得るために温度を調整しました。ご覧のように、現在の出力はものすごく整理されています。この温度設定で、モデルは低い温度でのように繰り返しがなく、高い温度でのように連贯性を欠くことがないのです。

結論

あなたは、温度がコンテンツ生成に及ぼす影響をいろいろな方法で見ましたし、どの温度設定がどのような使用案例に最適であるかを知りました。また、温度の調整はコンテンツ生成の全てであるわけではなく、他のパラメーターも調整する必要があることに注意してください。シリーズの次の記事で、すべてについて調査します。

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature