Decoderen van LLM Parameters, Deel 1: Temperatuur

Parameters van LLM

Net als elke machine learning-model, hebben grote taalmodellen verschillende parameters die de variantie van de gegenereerde tekstuitvoer controleren. We hebben een meerdelige reeks begonnen om de impact van deze parameters in detail uit te leggen. We zullen afsluiten door de perfecte balans te vinden in contentgeneratie door gebruik te maken van alle deze parameters die we in onze meerdelige reeks hebben besproken.

Welkom bij de eerste deel, waar we over de best bekende parameter, “Temperatuur,” spreken.

Temperatuur

Als het doel is de randomheid van de voorspellingen te controleren, dan is temperatuur de juiste keuze voor u. Lage temperatuurwaarden maken de uitvoer meer bepaald, terwijl hoge waarden meer creatief zijn door een diversiteit aan uitkomsten toe te staan.

Laten we nu de temperatuur in actie zien door middel van het volgende code en uitvoer. Om de belangrijkheid simpel te presenteren, hebben we gekozen om hugging face transformers en het GPT2-model in het bijzonder te gebruiken.

Python

 

Uitvoer:

PowerShell

 

Laat ons de uitvoer begrijpen:

  • Lage Temperatuur (0.3): Het model zal focus plaatsen op de meest waarschijnlijke woordkeuzes. Als precision en consistentie belangrijk zijn voor u, dan kunt u de temperatuur in dit bereik geven. Onthoud echter dat het model mogelijk vast zal komen te zitten met het herhalen van gelijke frases, zoals het geval is met onze uitvoer hier.
  • Middelbare Temperatuur (0.5): Deze temperatuur biedt een perfectevenwicht tussen coherente en creatieve output. Het is een uitstekende middelingsituatie als u een redelijk aantal variaties wilt zonder structuur te verliezen. Zoals u in het resultaat kunt zien, is er een klein evenwicht toegevoegd, maar er is nog steeds wat herhaling te zien in het resultaat.
  • Hoge Temperatuur (0.9): Deze temperatuur zorgt ervoor dat de LLM zo creatief mogelijk is. Zoals u kunt zien, verschilt dit resultaat van de twee voorgaande, door veel willekeurigheid en verscheidenheid in de inhoud te brengen.

Het bovenstaande voorbeeld stelt een fundamentele verstaanis van temperatuur. Laten we nu diezelfde ideeën nu in detail bekijken met enkele gebruiksgevallen: “Creatieve Verhaalproductie” en “Technische Explicatie.”

Bekijk dit nu met het volgende code voor een begrip hoe de temperatuur de bovenstaande twee gebruiksgevallen beïnvloedt.

Python

 

Uitvoer:

PowerShell

 

Nu zal de uitvoer worden verbroken en geanalyseerd voor creatieve verhaalproductie en technische uitleg op basis van de temperatuursinstellingen en hoe de uitvoer daardoor beïnvloed werd. We zullen ook observeren hoe een temperatuursinstelling perfect werkt voor één gebruiksgeval en het exacte tegenovergestelde doet voor het andere.

Creatieve Verhaalproductie

  • Lage Temperatuur (Negatief Effect):Zoals u kunt zien, is de verhaaluitvoer zeer herhalend en ontbreekt er variatie. Dit resultaat is niet ontspannend voor een creatieve taak en de extreme herhaling die door de onmogelijkheid van het model om nieuwe en innovatieve ideeën te introduceren wordt veroorzaakt, maakt het onvoldoende voor verhalenvertelling.
  • Hoge Temperatuur (Perfect Impact): Zoals u ziet uit de uitvoer, neemt de verhaal interessante richtingen in en is het erg creatief. De uitvoer voegt ook meerdere aspecten aan het verhaal toe, wat ermee variant en verbeeldingskracht krijgt, en perfect is voor innovatieve verhalenvertelling.

Technische Explicatie

  • Hoge Temperatuur (Negatieve Impact): Het is belangrijk te onthouden dat het behouden van feitelijke nauwkeurigheid erg belangrijk is voor een toepassing zoals een technische verklaring. Hoge temperatuur leidt tot veel willekeurigheid en minder waarschijnlijke woorden die worden ingevoegd in het gegenereerde content, wat ontevredenstellend is voor technische schrijven. Hetzelfde kan ook worden afgeleid uit de bovenstaande uitvoer dat het te vage is en on relevante ideeën bevat.
  • Gepaste Temperatuur (Perfect Impact): We hebben de temperatuur aangepast tot een instelling die een perfectevenwicht vindt voor het genereren van technische content. Zoals u ziet, is de uitvoer veel meer gesorteerd nu. Op deze temperatuursinstelling vermijdt de model reproductiviteit zoals die optreedt bij lagere temperaturen en verliest het geen coherente structuur zoals bij hogere temperaturen.

Conclusie

U hebt alle manieren gezien waarin temperatuur de contentgeneratie kan beïnvloeden en welke temperatuursinstelling perfect is voor welke toepassing. Merk ook op dat het aanpassen van de temperatuur niet het allesbepalende is van contentgeneratie; u zult ook andere parameters moeten aanpassen. We zullen over alles dat in de komende artikelen in de reeks kijken.

Source:
https://dzone.com/articles/decoding-llm-parameters-temperature