Decodificando Parâmetros de LLM, Parte 1: Temperatura

Parâmetros de LLM

Como qualquer modelo de aprendizagem de máquina, os grandes modelos de linguagem têm vários parâmetros que controlam a variância da saída de texto gerada. Nós começamos uma série multi-partes para explicar detalhadamente o impacto destes parâmetros. Concluiremos atingindo o equilíbrio perfeito na geração de conteúdo usando todos esses parâmetros discutidos na nossa série multi-partes.

Bem-vindo ao primeiro parte, onde discutimos o parâmetro mais bem conhecido, “Temperatura.”

Temperatura

Se o objetivo é controlar a randomização das previsões, então a temperatura é a coisa para você. Valores de temperatura mais baixos tornam a saída mais determinística, enquanto valores maiores permitem resultados diversos, tornando a saída mais criativa.

Vamos ver a temperatura em ação usando o código e a saída abaixo. Para apresentar a importância simplesmente, escolhemos usar os transformers de hugging face e o modelo GPT2 em particular.

Python

 

Saída:

PowerShell

 

Vamos entender a saída:

  • Temperatura Baixa (0.3): O modelo se focará nas escolhas de palavra mais prováveis. Se a precisão e a consistência importam para você, então dê a temperatura em torno deste intervalo. No entanto, lembre-se que o modelo pode ficar preso a repetir frases similares, como é o caso com nossa saída aqui.
  • Temperatura Média (0.5): Esta temperatura equilibramente mantiene a coerência e a criatividade. É um excelente ponto de partida se você procurar uma quantidade justa de variação sem perder a estrutura. Como você pode ver no resultado, um pouco de equilíbrio foi adicionado, mas ainda podemos ver alguma reprodutividade no resultado.
  • Alta Temperatura (0.9): Esta temperatura acelera a LLM para ser o mais criativa possível. Como você pode ver, este resultado é diferente dos dois anteriores, trazendo muita randomidade e variação no conteúdo.

O exemplo acima estabelece um entendimento fundamental da temperatura. Agora vamos olhar para isso de uma maneira mais detalhada com alguns casos de uso: “Geração de Histórias Criativas” e “Explicação Técnica”.

Vamos olhar isso com o código a seguir para entender como a temperatura afeta os dois casos de uso acima mencionados.

Python

 

Resultado:

PowerShell

 

Agora vamos parar e analisar o resultado para a geração de histórias criativas e a explicação técnica com base nas configurações de temperatura e como o resultado foi afetado. Também observaremos como uma configuração de temperatura funciona perfeitamente para um caso de uso e faz o contrário para outro.

Geração de Histórias Criativas

  • Temperatura Baixa (Impacto Negativo): Como você pode ver, a saída da história é altamente reprodutiva e carece de variedade. Este resultado não é satisfatório para uma tarefa criativa, e a reprodutividade extrema causada pela falta de capacidade do modelo de introduzir ideias inovadoras faz com que seja indesejável para a narrativa.
  • Alta Temperatura (Impacto Perfeito): Como você pode ver pela saída, a história toma direções interessantes e é muito criativa. A saída também adiciona múltiplos aspectos à história, o que a torna variada, imaginativa e perfeita para uma narrativa inovadora.

Explicação Técnica

  • Alta Temperatura (Impacto Negativo): É importante lembrar que manter a precisão factual é muito importante para um caso de uso como uma explicação técnica. A alta temperatura resulta em muito randomness e em palavras menos prováveis sendo introduzidas no conteúdo gerado, fazendo com que seja insatisfatório para a escrita técnica. O mesmo pode ser inferido da saída acima, que é muito vaga e inclui ideias irrelevantes.
  • Temperatura Ajustada (Impacto Perfeito): Nós ajustamos a temperatura para um ajuste que atinge uma balança perfeita para a geração de conteúdo técnico. Como você pode ver, a saída é muito mais organizada agora. Com este ajuste de temperatura, o modelo evita a repetição como faz em temperaturas mais baixas e não perde coesão como em temperaturas mais altas.

Conclusão

Você viu todas as maneiras em que a temperatura pode afetar a geração de conteúdo e qual ajuste de temperatura é perfeito para qual caso de uso. Além disso, note que ajustar a temperatura não é o fim da história da geração de conteúdo; você também terá que ajustar outros parâmetros. Vamos olhar para tudo isso nas próximas matérias da série.

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature