Decoderen van LLM-parameters, deel 2: Top-P (Nucleus Sampling)

Parameters van LLM

Net als elke machine learningmodel, hebben grote taalmodellen diverse parameters die de variantie van de gegenereerde tekstuitvoer controleren. We hebben een meerdelijkrij-serie begonnen om de impact van deze parameters in detail uit te leggen. We zullen afsluiten door de perfecte balans in contentgeneratie te vinden, gebruik makende van alle deze parameters die we in ons meerdelijkrij-series hebben besproken.

Welkom bij de tweedeel, waar we over een ander bekend parameter, “Top-P,” praten.

Top-P (Nucleus Sampling)

Als het doel is de diversiteit van de modeluitvoer te controleren, is Top-P de gekozen parameter. Een lage Top-P dwingt het model om de meest waarschijnlijke woorden te gebruiken, terwijl een hoge Top-P de model dwingt om meer diverse woorden te gebruiken, waardoor de creativiteit toeneemt.

Laten we Top-P in actie zien met behulp van het volgende code en uitvoer.

Python

 

Uitvoer:

PowerShell

 

Laten we nu de uitvoer begrijpen.

  • Top-P 0.1 – heel conservatief:Omdat het model kiest uit de top 10% van de waarschijnlijke volgende woordkeuzes, is er veel herhaling in de gegenereerde inhoud. Daarom ontbreekt deze reactie aan diversiteit en is ze vaak ook niet informatief.
  • Top-P 0.3 – Conservatief: Het model kiest uit de top 30% van de waarschijnlijke volgende woordkeuzes, dus het is iets minder conservatief dan het vorige Top-P instelling.als u uit de uitvoer ziet, is dit niet verbeterd contentgeneratie en de prompt werd door elkaar gehaald in de voltooiing. In dit geval betekent de herhaling van de prompt de meest waarschijnlijke vervolging na de prompt voor het model lijkt zichzelf te zijn.
  • Top-P 0.5 – Balanсed: Dit is waar u voor het eerst de model lijst wat getalde strategieën ziet. U ziet nog steeds wat herhaling in deze instelling ook. Maar het spijt is dat bij deze Top-P instelling, het model beginnen om een bredere keuze van woorden te integreren. De uitvoer is een mengsel van standaard raadvoorstellen met enkele on一致heden. Deze Top-P waarde staat toe om creativiteit te verbeteren, maar heeft nog steeds moeite met de diepte van de informatie.
  • Top-P 0.7 – Creatief: In dit geval kan het model een bredere keuze van woorden maken, en zoals u kunt zien, verschuift de reactie naar een narratieve stijl. Het content is meer creatief omdat het nu een scenario bevat waarin iemand met stress omgaat. Het nadeel is de verlies van focus, aangezien de nadruk niet op het beheersen van stress lag, maar op de moeilijkheden om met stress om te gaan.
  • Top-P 0.9 – heel Creatief: In deze instelling heeft het model toegang tot een breed scala aan vocabulaire en ideeën inclusief minder waarschijnlijke woorden en concepten. Deze instelling heeft het model geïnspireerd om meer expressieve taal te gebruiken. Opnieuw het nadeel van heel creatief zijn dat de model afwijkt van de prompt in de zoektocht naar het produceren van rijke en variantie content.

Het belangrijkste uit de bovenstaande oefening is hoe de inhoud verandert met de verandering in de Top-P instelling. Het geeft ons ook een idee dat dit parameter niet het enige is dat behandeld moet worden voor variantie in de inhoud en haar relevantie.

Nu laten we kijken wat de impact is van Top-P op een paar gebruiksgevallen, net zoals in de vorige onderdeel van deze reeks over “Creatieve Verhaal Generatie” en “Technische Explicatie.”

Python

 

Uitvoer:

PowerShell

 

Nu laten we de uitvoer voor creatieve verhaalgeneratie en technische verklaring analyseren op basis van de Top-P instellingen en hoe de uitvoer beïnvloed werd.

Om de impact van Top-P effectief te demonstreren, hebben we betere prompts ingepast om de uitvoer in de goede richting te sturen zodat het effect gemakkelijk waargenomen kan worden.

Creatieve Verhaal Generatie

  • Laag Top-P (Negatieve Impact): Zoals u kunt zien met het lage Top-P, is de model beperkt tot het gebruik van woorden of frases, waardoor herhaling en redundantie ontstaan. De creativiteit is ook beperkt in dit geval, aangezien het model probeert geen nieuwe ideeën te introduceren. Maar merk op dat de logische stroom nog steeds worden behouden en het model blijft op het onderwerp, wat kenmerkend is voor lagere Top-P waarden.
  • Hoog Top-P (Perfect Impact): In dit geval introduceert de model nieuwe concepten en voegt een creatieve hoek toe aan de vertelling. Bredere woordenbank wordt gebruikt, die diepte en rijkdom aan de tekst toevoegt. Helaas is de logische stroom, door de vergroot creativiteit, beperkt.

De contrast tussen de twee narraties laat duidelijk zien de impact van Top-P, waardoor het gemakkelijk te begrijpen is hoe het effect heeft op creatieve schrijven.

technische uitleg

  • Hoge Top-P (Negatieve impact):Als u kunt zien heeft een hoge Top-P een negatief effect op technische uitleg door het verhinderen van een logische stroom en afwijken van het onderwerp. Het model introduceert ook irrelevante informatie die niet aan de uitleg relevant is.
  • Optimaal Top-P (Perfecte impact):De uitleg is meer coherent en dicht bij het onderwerp met een optimale Top-P. Het inhoudelijke aligneert beter met de opdracht en balanceert nauwkeurigheid en uitdrukking goed. De betrouwbaarheid van de informatie wordt verhoogd omdat het model beperkt is tot meer waarschijnlijke woorden.

Conclusie

Met deze experimenten hebben we de belangrijkheid van de Top-P parameter getoond in het controleren van de willekeurigheid en creativiteit van de gegenereerde tekst. We hebben eerst een enkele opdracht gezien en hoe de uitvoer verschilt met verschillende Top-P en daarna een meer case-gebonden aanpak gevolgd hoe Top-P de uitvoer controleert op basis van het gebruiksdoel.

Hieruit en uit de vorige delen van de reeks kunnen we echter zien dat elke parameter afzonderlijk niet voldoende voor de kwaliteit van de inhoud genereren. Dat is waarom het essentieel is om het effect van alleParameters te bekijken, en we zullen dat doen als het laatste deel van deze reeks.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p