Decodificando Parâmetros LLM, Parte 2: Top-P (Amostra de Núcleo)

Parâmetros do LLM

Como qualquer modelo de aprendizado de máquina, os grandes modelos de linguagem têm vários parâmetros que controlam a variância da saída de texto gerada. Nós começamos uma série de várias partes para explicar detalhadamente o impacto desses parâmetros. Concluiremos com o equilíbrio perfeito na geração de conteúdo usando todos esses parâmetros discutidos na nossa série de várias partes.

Bem-vindo à segunda parte, onde discutimos outro parâmetro bem conhecido, “Top-P”.

Top-P (Amostragem de Núcleo)

Se o objetivo é controlar a diversidade da saída do modelo, então o Top-P é a opção ideal para você. Um valor de Top-P baixo força o modelo a usar as palavras mais prováveis, enquanto um valor de Top-P alto força o modelo a usar palavras mais diversas, aumentando a criatividade.

Vamos ver o Top-P em ação com o código e a saída a seguir.

Python

 

Saída:

PowerShell

 

Agora vamos entender a saída.

  • Top-P 0.1 – Muito Conservador:Como o modelo seleciona das palavras seguintes mais prováveis no top 10%, há muita repeticão no conteúdo gerado. Portanto, essa resposta carece de diversidade e é também muitas vezes não informativa.
  • Top-P 0.3 – Conservador: O modelo seleciona das primeiras 30% das opções de palavra prováveis seguintes, portanto, é um pouco menos conservador que o anterior conjunto de Top-P. Como você pode ver na saída, isso não melhorou a geração de conteúdo e o prompt foi repetido ao longo da completação. Neste caso, a repetição do prompt significa que a seqüência mais provável após o prompt para o modelo parece ser o próprio prompt.
  • Top-P 0.5 – Equilibrado: Aqui você começa a ver o modelo listando algumas estratégias numeradas pela primeira vez. Ainda há alguma repetição nesta configuração, também. Mas o ponto é que neste nível de Top-P, o modelo começa a incorporar uma gama mais ampla de palavras. A saída é uma mistura de conselhos padrão com algumas inconsistências. Este valor de Top-P permite uma melhoria na criatividade, mas ainda luta com a profundidade de informação.
  • Top-P 0.7 – Criativo: Neste caso, o modelo pode selecionar de uma gama mais ampla de palavras, e como você pode ver, a resposta está mudando para um estilo narrativo. O conteúdo é mais criativo, já que envolve agora um cenário onde uma pessoa está lidando com estresse. O lado negativo é a perda de foco, já que o foco não era na gestão do estresse, mas nas dificuldades em lidar com o estresse.
  • Top-P 0.9 – Muito Criativo: Nesta configuração, o modelo tem acesso a uma ampla gama de vocabulário e ideias, incluindo palavras e conceitos menos prováveis. Essa configuração permite que o modelo use linguagem mais expressiva. Novamente, o lado negativo de ser muito criativo é que o modelo se desvia do prompt na busca por conteúdo rico e variado.

O ponto crítico a serem notados a partir do exercício acima é como o conteúdo muda com a mudança no valor de Top-P. Também dá-nos a ideia de que este parâmetro não é o único que precisa ser tratado para variar o conteúdo e sua relevância.

Agora, vamos olhar para o impacto de Top-P em alguns casos de uso, justamente como na parte anterior desta série sobre “Geração de Histórias Criativas” e “Explicações Técnicas”.

Python

 

Saída:

PowerShell

 

Agora vamos desconstruir e analisar a saída para a geração de histórias criativas e explicações técnicas com base nas configurações de Top-P e como a saída foi afetada.

Para demonstrar eficazmente o impacto de Top-P, nós integramos melhores prompts para orientar a saída de modo que o impacto seja observado facilmente.

Geração de Histórias Criativas

  • Alto Top-P (Impacto Bom):Como você pode ver com o menor Top-P, o modelo é restrito ao uso de palavras ou expressões e causa, portanto, repetição e redundância. A criatividade é também limitada neste caso, já que o modelo tenta não apresentar ideias novas. Mas se você notar, o fluxo lógico ainda é mantido e o modelo fica no tópico, o que é típico de valores de Top-P baixos.
  • Baixo Top-P (Impacto Ruim):Neste caso, o modelo apresenta novos conceitos e adiciona uma angulação criativa à narrativa. A vocabulário é mais amplo, adicionando profundidade e ricaça ao texto. No entanto, devido à criatividade aumentada, o fluxo lógico foi comprometido.

A contraste entre as duas narrativas mostra claramente o impacto de Top-P, fazendo com que seja fácil entender como ele afeta a escrita criativa.

Explicação Técnica

  • Alta Top-P (Impacto Negativo): Como podem ver, a alta Top-P afeta negativamente as explicações técnicas, impedindo um fluxo lógico e desviante do tópico. O modelo também introduce informações irrelevantes que não são pertinentes à explicação.
  • Top-P Ótima (Impacto Perfeito): Com a Top-P ótima, a explicação é mais coerente e próxima do tópico. O conteúdo se ajusta melhor ao prompt e equilibra bem a precisão e a expressão. A confiabilidade da informação é melhorada, pois o modelo é limitado a palavras mais prováveis.

Conclusão

Com este experimento, mostrámos com sucesso a importância do parâmetro Top-P para controlar a randomness e a criatividade do texto gerado. Primeiro, olhámos para um único prompt e como o resultado varia com diferentes Top-P e depois adoptámos uma abordagem baseada em casos de uso para ver como o Top-P controla o resultado com base no caso de uso.

No entanto, das partes anteriores e desta série, notamos que individualmente, cada parâmetro não é o suficiente para a qualidade de geração de conteúdo. É por isso que é essencial olhar para o impacto de todos esses parâmetros e isso será feito na última parte desta série.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p