Decodificação de Parâmetros de LLM, Parte 1: Temperatura

Parâmetros de LLM

Como qualquer modelo de aprendizagem de máquina, os grandes modelos de linguagem têm vários parâmetros que controlam a variância da saída de texto gerada. Nós começamos uma série de vários partes para explicar detalhadamente o impacto destes parâmetros. Concluiremos atingindo o equilíbrio perfeito na geração de conteúdo usando todos esses parâmetros discutidos na nossa série de vários partes.

Bem-vindo ao primeiro parte, onde discutimos o parâmetro mais bem conhecido, “Temperatura.”

Temperatura

Se o objetivo é controlar a aleatoriedade das predições, então a temperatura é a coisa para você. Valores de temperatura baixos tornam a saída mais determinística, enquanto valores altos permitirão resultados diversos, tornando-a mais criativa.

Vamos olhar a temperatura em ação usando o seguinte código e saída. Para apresentar a importância simplesmente, escolhemos usar os transformers do Hugging Face e o modelo GPT2 em particular.

Python

 

Saída:

PowerShell

 

Vamos entender a saída:

  • Temperatura Baixa (0.3): O modelo irá se concentrar nas escolhas de palavra mais prováveis. Se a precisão e a consistência importam para você, então dê a temperatura em torno deste intervalo. No entanto, lembre-se que o modelo pode ficar preso a repetir frases semelhantes, como é o caso com nossa saída aqui.
  • Temperatura Média (0.5): Esta temperatura equilibra perfeitamente a coesão e a criatividade. É um excelente ponto de partida se você quiser uma quantidade justa de variação sem perder a estrutura. Como você pode ver no resultado, um pouco de equilíbrio foi adicionado, mas ainda é possível identificar alguma repeticão no resultado.
  • Temperatura Alta (0.9): Esta temperatura explode o MLG para ser o mais criativo possível. Como você pode ver, este resultado difere dos dois anteriores, trazendo muita randomidade e variação no conteúdo.

O exemplo acima estabelece um entendimento básico da temperatura. Agora vamos olhar para isso de uma maneira um pouco mais detalhada com alguns casos de uso: “Geração de Histórias Criativas” e “Explicação Técnica”.

Vamos olhar isso com o código a seguir para entender como a temperatura afeta os dois casos de uso acima mencionados.

Python

 

Resultado:

PowerShell

 

Agora vamos parar e analisar o resultado para a geração de histórias criativas e a explicação técnica com base nas configurações de temperatura e como o resultado foi afetado. Também observaremos como uma configuração de temperatura funciona perfeitamente para um caso de uso e faz o exactamente o contrário para outro caso de uso.

Geração de Histórias Criativas

  • Temperatura Baixa (Impacto Negativo): Como você pode ver, a saída da história é altamente reprodutiva e carece de variedade. Este resultado não é satisfeito para uma tarefa criativa, e a repetitividade extrema causada pela incapacidade do modelo de introduzir ideias inovadoras e novas torna-se desejavel para a contação de histórias.
  • Alta Temperatura (Impacto Perfeito): Como podem ver pela saída, a história toma direções interessantes e é muito criativa. A saída também adiciona múltiplos aspectos à história, o que a torna variada, imaginativa e perfeita para uma narrativa inovadora.

Explicação Técnica

  • Alta Temperatura (Impacto Negativo):É importante lembrar que manter a precisão factual é muito importante para um caso de uso como uma explicação técnica. A alta temperatura leva a muito aleatoriedade e a palavras menos prováveis serem introduzidas no conteúdo gerado, fazendo com que seja insatisfatório para a escrita técnica. O mesmo pode ser inferido da saída acima, que é muito vaga e inclui ideias irrelevantes.
  • Temperatura Ajustada (Impacto Perfeito):Nós ajustamos a temperatura para um ajuste que atinge um equilíbrio perfeito para a geração de conteúdo técnico. Como podem ver, a saída é muito mais organizada agora. Neste ajuste de temperatura, o modelo evita a repetição como faz em temperaturas baixas e não perde coesão como em temperaturas altas.

Conclusão

Você viu todas as maneiras em que a temperatura pode afetar a geração de conteúdo e em que o ajuste de temperatura é perfeito para qualquer caso de uso. Além disso, note que ajustar a temperatura não é o fim da história da geração de conteúdo; você também terá que ajustar outros parâmetros. Vamos olhar para todos esses na próxima série de artigos.

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature