Decodifica dei parametri LLM, parte 2: Top-P (Sampling del Nucleo)

Parametri dell’LM

Come qualsiasi modello di apprendimento automatico, i grandi modelli di linguaggio hanno diversi parametri che controllano la varianza dell’output del testo generato. Abbiamo iniziato una serie multipart per spiegare in dettaglio l’impatto di questi parametri. Concluderai con il bilanciamento perfetto nella generazione del contenuto usando tutti questi parametri discussi nella nostra serie multipart.

Benvenuti nel secondo capitolo, dove discutiamo di un altro parametro ben noto, “Top-P”.

Top-P (Sampling Nucleus)

Se il tuo obiettivo è controllare la diversità dell’output del modello, allora Top-P è la scelta giusta per te. Un basso Top-P costringe il modello ad usare le parole più probabili, mentre un alto Top-P costringe il modello ad usare parole più diverse, aumentando la creatività.

Osserviamo Top-P in azione con il seguente codice e output.

Python

 

Output:

PowerShell

 

Adesso spiegheremo l’output.

  • Top-P 0.1 – Molto conservatore: Poiché il modello sceglie dalla top 10% delle scelte di parola probabili seguenti, ci sono molte ripetizioni nel contenuto generato. Quindi questa risposta manca di diversità e anche di informazione la maggior parte del tempo.
  • Top-P 0.3 – Conservatore: Il modello sceglie dalle prime 30% delle scelte di parola probabili successive, quindi è leggermente meno conservatore della precedente impostazione Top-P. Come vedete dall’output, questo non ha migliorato la generazione del contenuto, e il prompt è stato ripetuto più volte nella completazione. In questo caso, la ripetizione del prompt significa che la prosecuzione più probabile dopo il prompt per il modello sembra essere il prompt stesso.
  • Top-P 0.5 – Equilibrato: Ecco dove vedete il modello elencare alcune strategie numerate per la prima volta. Anche in questa impostazione si nota ancora qualche ripetizione. Ma il punto fondamentale è che a questa impostazione Top-P, il modello comincia a incorporare una gamma più ampia di parole. L’output è una miscela di consigli standard con alcune incongruenze. Questo valore Top-P consente una migliore creatività ma ancora soffre di una profondità di informazione limitata.
  • Top-P 0.7 – Creativo: In questo caso, il modello può scegliere da una gamma più ampia di parole, e come vedete, la risposta si sta spostando verso uno stile narrativo. Il contenuto è più creativo poiché ora coinvolge una situazione in cui una persona sta affrontando stress. Il lato negativo è la perdita di focus, poiché l’emphasis non era sulla gestione dello stress ma sulle difficoltà nell’affrontarlo.
  • Top-P 0.9 – Molto Creativo: In questa impostazione, il modello ha accesso a una vasta gamma di vocabolari e idee, inclusi parole e concetti meno probabili. Questa impostazione ha permesso al modello di usare un linguaggio più espressivo. Ancora una volta, il lato negativo dell’essere molto creativo è che il modello si allontana dal prompt nella ricerca di produrre contenuti ricchi e variegati.

La cosa fondamentale da notare dall’esercizio precedente è come il contenuto cambia con il cambiamento della impostazione Top-P. Dà anche un’idea che questo parametro non è l’unico che deve essere gestito per la variazione nel contenuto e nella sua rilevanza.

Adesso, consideriamo l’impatto di Top-P su alcuni casi d’uso, proprio come nella parte precedente di questa serie su “Generazione di Storie Creative” e “Esplicazioni Tecniche”.

Python

 

Output:

PowerShell

 

Adesso, analizziamo in dettaglio l’output per la generazione di storie creative e le spiegazioni tecniche in base alle impostazioni di Top-P e come queste hanno influenzato l’output.

Per dimostrare efficacemente l’impatto di Top-P, abbiamo integrato prompt migliori per guidare l’output in modo da renderlo facile da osservare.

Generazione di Storie Creative

  • Impostazione Top-P bassa (Impatto negativo): Come vedete con l’alta Top-P, il modello è limitato nell’uso di parole o frasi e quindi causa ripetizione e redundanza. La creatività è anche limitata in questo caso, poiché il modello cerca di non introdurre nuove idee. Ma se notate, la logica del flusso è ancora mantenuta e il modello rimane sul topic, caratteristica tipica di valori bassi di Top-P.
  • Impostazione Top-P alta (Impatto perfetto): In questo caso, il modello introduce nuovi concetti e aggiunge un angolo creativo alla narrazione. Viene utilizzata una più ampia vocabolario, aggiungendo profondità e ricchezza al testo. Tuttavia, a causa dell’aumentata creatività, il flusso logico è stato limitato.

La contrapposizione tra le due narrazioni chiaramente mostra l’impatto di Top-P, rendendolo facile da capire come influenza la scrittura creativa.

Spiegazione Tecnica

  • Alto Top-P (Impatto Negativo):Come potete vedere, un alto Top-P ha un impatto negativo sulla spiegazione tecnica, impedendo un flusso logico e deviando dalla discussione principale. Il modello introduce anche informazioni non pertinenti alla spiegazione.
  • Top-P Ottimale (Impatto perfetto):Con un Top-P ottimale, l’esposizione è più coerente e vicina al topic. Il contenuto si allinea meglio con il prompt e equilibra bene accuratezza e espressione. La affidabilità delle informazioni viene incrementata perché il modello è limitato a parole più probabili.

Conclusione

Con questo esperimento, abbiamo dimostrato con successo l’importanza del parametro Top-P nel controllare la casualità e la creatività del testo generato. Iniziammo guardando un singolo prompt e come l’output varia con il variare del Top-P, poi abbiamo adottato un approcio basato su casi d’uso per capire come Top-P controlla l’output in base all’uso.

Tuttavia, dalla parte precedente e da questa parte della serie, abbiamo notato che individualmente, ciascun parametro non riesce a garantire una generazione di contenuti di qualità adeguata. Per questo motivo, è importante considerare l’impatto di tutti questi parametri, e lo faremo come parte finale di questa serie.

Source:
https://dzone.com/articles/decoding-llm-parameters-top-p