解码 LLM 参数,第 2 部分:Top-P(核采样)

LLM參數

像任何機器學習模型一樣,大型語言模型具有控制生成文本輸出差異的各種參數。我們已經開始了一個多部分系列,以詳細解釋這些參數的影響。我們將通過在我們的多部分系列中討論的所有這些參數來達到內容生成的完美平衡。

歡迎來到第二部分,在這裡我們將討論另一個眾所周知的參數,“Top-P”。

Top-P(核子取樣)

如果目標是控制模型輸出的多樣性,那麼Top-P就是您的不二之選。較低的Top-P強迫模型使用最可能的單詞,而較高的Top-P則迫使模型使用更多樣化的單詞,增加創造力。

讓我們通過以下代碼和輸出來看看Top-P的作用。

Python

 

輸出:

PowerShell

 

現在讓我們了解輸出。

  • Top-P 0.1 – 非常保守:由於模型從概率後10%的選擇中進行選擇,生成的內容中有很多重複。因此,這個回應缺乏多樣性,大部分時間也不具信息性。
  • 顶端P 0.3 – 保守:模型從可能性較高的詞語選擇中選取前30%,因此它比上一个頂端P設定稍微不那麼保守。從输出来看,這并没有改進內容生成,而且补全中不斷重複提示。在這種情況下,提示的重複意味著模型認為在提示後最有可能的繼續是提示本身。
  • 顶端P 0.5 – 平衡:在这里,您可以看到模型第一次列出了一些编号策略。在此設定中,您仍然可以看到一些重複。但归根結底,在這個頂端P設定下,模型開始纳入更廣泛的詞語。輸出是標準建議與一些不一致性的混合。這個頂端P值允許提高創造性,但仍然 struggling 著信息的深度。
  • 顶端P 0.7 – 創造性:在這種情況下,模型可以從更廣泛的詞語中選擇,正如您所見,響應正在向叙事情節風格轉變。內容更具有創造性,因為現在它涉及一個人如何應對压力的情境。不便的是失去了焦点,因為強調的是應對压力的困難,而不是管理压力。
  • 顶端P 0.9 – 非常創造性:在此設定中,模型可以訪問廣泛的詞彙和想法,包括可能性較低的詞語和概念。此設定使得模型能夠使用更表達性的語言。同樣,非常創造性的不便之处是,模型在生產豐富多變的內容的過程中偏离了提示。

上述練習的重要觀察點是,內容如何隨著Top-P設定值的變化而變化。它也讓我們了解到,這個參數並不是唯一需要處理變化和相關性的 parameter。

現在,讓我們看看Top-P對幾個使用案例的影響,就像本系列的 “

Python

 

創意故事生成的 ‘

PowerShell

 

一部分和”技術解釋” ‘

。 Output:

現在讓我們分解並分析基于 Top-P 設定值和 Output 影响的創意故事生成和技術解釋 Output。

  • 為了有效地展示 Top-P 的影響,我們已將 prompt 更好地理性地引导 Output,以便輕鬆观察影響。創意故事生成
  • 低 Top-P (負面影響):如您所見,低 Top-P 下,模型受到单词或短語的使用限制,因此導致重複和冗餘。在這種情況下,創造性也受到限制,因為模型嘗試不引入新想法。但如果您注意到了, logical flow 仍然得到維護,並且 model 保持在主題上,這通常是低 Top-P 值的特點。

高 Top-P (完美影響):在這個案例中,模型引用了新概念並為敘述增添了創造性角度。使用更廣泛的詞彙,為文本增添了深度和豐富性。然而,由於創造性增強,logical flow 受到了压制。這兩種叙述之間的對比清楚地展示了 Top-P 的影響,使我們容易理解它如何影響創意寫作。

技術解釋

  • 高Top-P(負面影響):如你所見,高Top-P對技術解釋產生負面影響,因為它會阻止邏輯流的進行並使內容偏离主題。模型的這種作為亦引入了與解釋無關的信息。
  • 最優Top-P(完美影響):在最優Top-P的情況下,解釋的 条理更加清晰,且貼近主題。內容與提示更加對應,且在準確性和表達之間取得了良好的平衡。由於模型生成的文字受到更有機概率詞的限制,因此提高資訊的可靠性。

結論

通過這次實驗,我們成功地展示瞭Top-P參數在控制生成文字的隨機性和創造性方面的重要性。我們首先观察到一个提示下,隨著Top-P變化的輸出如何變化,然後采用更具應用案例方法的觀察,了解在不同用例下Top-P如何控制輸出。

然而,從本系列前文和本文的观察中,我們發現單獨每個參數對於生成內容的質量來說還是不夠公正。那就是為什麼研究所有這些參數的影響至關重要,我們将在本系列的最後一部分對其進行探讨。

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p