LLM Parameters 를 解码하는 것, 部分 2: Top-P (Nucleus Sampling)

LLM パラメーター

どの機械学習モデルも同様に、大規模な言語モデルには、生成されるテキストの変异性を制御するための様々なパラメーターがあります。私たちは、これらのパラメーターの影響を詳細に説明するために、多部分のシリーズを開始しました。私たちは、この多部分のシリーズで議論したすべてのパラメーターを使用して、コンテンツ生成に最適なバランスを取るときに到着するでしょう。

これは第2部分です。ここで、もう一つ有名なパラメーター、”Top-P”について話します。

Top-P (Nucleus Sampling)

モデルの出力の多様性を制御するためには、Top-Pが適しています。低いTop-Pはモデルに最も可能性の高い単語を使用するように促し、高いTop-Pはモデルにより多様な単語を使用するように促し、創造性を増やします。

次のコードと出力を使ってTop-Pの动作を見てみましょう。

Python

 

出力:

PowerShell

 

次に、出力を理解しましょう。

  • Top-P 0.1 – 非常に保守的:モデルは最も可能性の高い次の単語の10%から選択します。したがって、生成されたコンテンツには多くの繰り返しがあります。したがって、この応答は多様性を欠くし、おおよそすべての場合は情報量を欠くします。
  • Top-P 0.3 – консервативный: Модель выбирает из 30% вероятных следующих слов, так что она немного менее консервативна, чем предыдущая настройка Top-P. Как вы можете видеть из вывода, это не улучшило генерацию содержания, и произвольный текст был повторён на протяжении завершения. В этом случае повтор произвольного текста означает, что самой вероятной продолженией после произвольного текста для модели является сам произвольный текст.
  • Top-P 0.5 – сбалансированный: В этом месте можно observe, что модель enumera несколько нумерованных стратегий впервые. Вы все еще можете найти некоторую повторяемость в этом настройке. Но в конце концов при этом Top-P настройке модель начала внедрять более широкий спектр слов. Вывод – это смесь стандартных советов с некоторыми непоследовательностями. Эта Top-P значение разрешает улучшенную творческую способность, но все еще борюсь с глубиной информации.
  • Top-P 0.7 – творческий: В этом случае модель может выбирать из более широкого спектра слов, и как вы можете видеть, ответ смещается в сторону narrative style. Содержание более творческое, так как теперь涉及 сценария, где человек сталкивается с стрессом. Drawback – это потеря focus, так как акцент был не на управлении стрессом, а на трудностях в приспосабливании к стрессу.
  • Top-P 0.9 – очень творческий: В этом режиме модель имеет доступ к широкому спектру слов и идей, включая менее вероятные слова и концепции. Эта настройка позволила модели использовать более выразительный язык. снова drawback очень творческого – модель отклоняется от произвольного текста в поисках производства богатого и различного содержания.

위의 실험から 주목할 수 있는 중요한 것은, Top-P 설정의 변화에 따라 내용이 어떻게 변화하는지 以及 이 PARAMETER이 alone로 사용되어야 하는가 아닌지 이해하는 데 도움이 옵니다.

지금 Top-P의 영향을 보기 위해 썸네일 사용 사례를 몇 가지 더 살펴봐요, 이전 부분과 마찬가지로 “クリエイティブ ストーリー 생성”과 “기술 설명”에 대한 시리즈의 이전 부분과 마찬가지입니다.

Python

 

산출물:

PowerShell

 

이제 creative story generation과 technical explanation에 대한 산출물을 Top-P 설정에 따라 분석하고 breakdown 해봐요. 산출物에 영향을 미칠 것입니다.

Top-P의 영향을 좋게 보이기 위해 산출물을 이를 것이 잘 나타나는지 시도했습니다.

クリエイティブ ストーリー 생성

  • 낮은 Top-P (부정적 영향):낮은 Top-P를 보면, 모델이 단어나 phases를 사용하는 것을 제한하므로 반복과 상수가 발생합니다. 이 경우 創造性이 한계를 나누며 새로운 아이디어를 introduce하지 않습니다. 그러나 주목해 봐도, 논리적인 흐름이 still maintained되며 모델이 주제에 adhere하는 것이 낮은 Top-P 값의 유용한 특성입니다.
  • 높은 Top-P (完璧한 영향):이 경우, 모델은 새로운 개념을 introduce하고 이야기 telling에 創造적인 angels를 더합니다. 촉진적인 言語를 사용하여 텍스트에 깊이와 richer를 추가합니다. 그러나 생각적인 흐름이 제한되었습니다.

두 개의 이야기를 비교해서 Top-P의 영향을 明显的하게 보이게 되었습니다. 이는 어떻게 創造的 쓰기를 영향을 줄 수 있는지 이해하기 쉽습니다.

기술 설명

  • 높은 Top-P (부정적 영향):正如你所见, 높은 Top-P가 기술 설명에 부정적인 영향을 미치는 것입니다. 이를 통해 логический 흐름을 방해하고 주제에 벗어나게 되며, 모델은 설명에 pertinent한 irrelevan information을 도입합니다.
  • 적절한 Top-P (完璧한 영향):적절한 Top-P로 설명이 더욱 cohierrent하고 주제에 가까워집니다. 이를 통해 주제와 더욱 맞춰지며, 정확성과 표현을 Balanced하게 관리합니다. 정보의 신뢰성이 높인 것은 모델이 더욱 가능한 단어로 제한되어 있기 때문입니다.

결론

이번 실험으로 我們이 have successfully showcased the importance of the Top-P parameter in controlling the randomness and creativity of the generated text. 우리는 먼저 single prompt에 대해 输出来 varying Top-P에 따라 어떻게 달라지는지 보았고, 그 后面에서 use-case-based approach를 통해 Top-P가 输出来를 어떻게 어 directing하는지 확인하는 것을 试了一遍.

그러나 이번 部分과 이전 部分을 통해 우리는 각각의 파라미터 alone, 输出来 quality를 충분히 만족시키는 것은 아니라는 것을 발견했습니다. 그렇기 때문에 이러한 모든 파라미터의 impact를 보는 것이 중요하며, 이러한 시리즈의 마지막 部分에서 이를 실시하겠습니다.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p