Decodificação de Parâmetros de LLM, Parte 2: Top-P (Amostragem de Núcleo)

Parâmetros de ML

Como qualquer modelo de aprendizagem de máquina machine learning, os grandes modelos de linguagem têm vários parâmetros que controlam a variância da saída de texto gerada. Nós começamos uma série de vários partes para explicar em detalhes o impacto destes parâmetros. Concluiremos atingindo o equilíbrio perfeito na geração de conteúdo usando todos esses parâmetros discutidos na nossa série de vários partes.

Bem-vindo ao segundo部分, onde discutimos outro parâmetro bem conhecido, “Top-P.”

Top-P (Amostragem de Núcleo)

Se o objetivo é controlar a diversidade da saída do modelo, então o Top-P é a opção ideal para você. Um valor de Top-P mais baixo força o modelo a usar as palavras mais prováveis, enquanto um valor de Top-P mais alto força o modelo a usar palavras mais diversas, aumentando a criatividade.

Vamos olhar o Top-P em ação com o seguinte código e saída.

Python

 

Saída:

PowerShell

 

Agora vamos entender a saída.

  • Top-P 0.1 – Muito Conservador:Como o modelo seleciona das palavras seguintes mais prováveis 10%, há muita repeticão no conteúdo gerado. Portanto, essa resposta carece de diversidade e é também frequentemente não informativa.
  • Top-P 0.3 – Conservador: O modelo seleciona das opções de palavra seguinte mais prováveis, representando 30% do total, fazendo com que seja um pouco menos conservador que o anterior conjunto de Top-P. Como podem ver pela saída, isso não melhorou a geração de conteúdo, e o prompt foi repetido ao longo da completação. Neste caso, a repeticão do prompt indica que a seqüência mais provável após o prompt para o modelo parece ser o próprio prompt.
  • Top-P 0.5 – Equilibrado: Aqui você vê o modelo listando por primeira vez algumas estratégias numeradas. Ainda há alguma repeticão nesta configuração, mas o que importa é que neste nível de Top-P, o modelo começa a incorporar uma gama mais ampla de palavras. A saída é uma mistura de conselhos padrão com algumas inconsistências. Este valor de Top-P permite uma melhoria na criatividade, mas ainda luta com a profundidade de informação.
  • Top-P 0.7 – Criativo: Neste caso, o modelo pode selecionar de uma gama mais ampla de palavras, e como podem ver, a resposta está mudando para um estilo narrativo. O conteúdo é mais criativo, já que envolve um cenário onde uma pessoa está lidando com estresse. O lado negativo é a perda de foco, pois o emphasis não era na gestão do estresse, mas nas dificuldades de enfrentá-lo.
  • Top-P 0.9 – Muito Criativo: Nesta configuração, o modelo tem acesso a uma ampla gama de vocabulário e ideias, incluindo palavras e conceitos menos prováveis. Este nível permite que o modelo use linguagem mais expressiva. Novamente, o lado negativo de ser muito criativo é que o modelo se desvia do prompt em busca de produzir conteúdo rico e variado.

O ponto crítico a notar acima é como o conteúdo muda com a mudança no valor de Top-P. Também dá-nos uma ideia de que este parâmetro não é o único que precisa ser tratado para variação no conteúdo e na sua relevância.

Agora, vamos olhar para o impacto de Top-P em alguns casos de uso, exatamente como na parte anterior desta série sobre “Geração de Histórias Criativas” e “Explicação Técnica”.

Python

 

Saída:

PowerShell

 

Agora vamos desconstruir e analisar a saída para geração de histórias criativas e explicação técnica com base nas configurações de Top-P e como a saída foi afetada.

Para demonstrar eficazmente o impacto de Top-P, nós integramos melhores prompts para orientar a saída de modo que o impacto seja observado facilmente.

Geração de Histórias Criativas

  • Baixo Top-P (Impacto Negativo):Com o valor de Top-P baixo, o modelo é restrito ao uso de palavras ou frases e causa portanto repetição e redundância. A criatividade também é limitada neste caso, pois o modelo tenta não introduzir ideias novas. Mas se você notar, a fluência lógica é mantida, e o modelo fica no tópico, o que é típico de valores de Top-P baixos.
  • Alto Top-P (Impacto Perfeito):Neste caso, o modelo introduce conceitos novos e adiciona uma angulação criativa à narrativa. A vocabulário maior é usada, adicionando profundidade e riqueza ao texto. No entanto, devido à criatividade aumentada, a fluência lógica foi comprometida.

A contraste entre as duas narrativas mostra claramente o impacto de Top-P, fazendo com que seja fácil entender como afeta a escrita criativa.

Explicação Técnica

  • Alto Top-P (Impacto Negativo):Como podem ver, o alto Top-P afeta negativamente as explicações técnicas, impedindo um fluxo lógico e distraindo-se do tópico. O modelo também introduce informações irrelevantes que não são pertinentes à explicação.
  • Top-P Ótima (Impacto Perfeito):Com o Top-P ótimo, a explicação é mais coerente e próxima do tópico. O conteúdo se alinha melhor com o prompt e equilibra bem a precisão e a expressão. A confiabilidade da informação é melhorada porque o modelo é limitado a palavras mais prováveis.

Conclusão

Com este experimento, mostramos com sucesso a importância do parâmetro Top-P no controle da randomness e da criatividade do texto gerado. Primeiro, olhámos para um único prompt e como a saída varia com diferentes Top-P e depois adoptámos uma abordagem baseada em casos de uso para ver como o Top-P controla a saída com base no caso de uso.

No entanto, das partes anteriores e desta parte da série, notei que individualmente, cada parâmetro não consegue justiça à qualidade da geração de conteúdo. É por isso que é essencial olhar para o impacto de todos esses parâmetros e isso será feito na última parte desta série.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p