Reading

1. Esempi di parametri


Questa scheda offre una panoramica sintetica dei principali parametri utilizzati per influenzare le risposte dei modelli di IA generativa.

Parametri di inferenza

Top-k

Limita la scelta del modello ai k token più probabili durante la generazione del testo, controllando la diversità dell'output.

Range Valori Intero positivo (es. 50)
Esempio Impostando top-k=50, il modello considererà solo le 50 opzioni più probabili per ogni passo nella generazione.
Top-p (Nucleus Sampling)

Considera i token con una probabilità cumulativa fino a p, permettendo una selezione più dinamica dei token rispetto a top-k.

Range Valori 0.0 - 1.0 (es. 0.9)
Esempio Con top-p=0.9, il modello includerà i token che coprono il 90% della probabilità cumulativa.
Temperatura

Controlla la casualità nella selezione dei token; valori più alti producono output più vari e creativi, mentre valori più bassi generano risposte più prevedibili.

Range Valori 0.0 - 1.0 (es. 0.2 per risposte conservative, 0.8 per risposte creative)
Esempio Una temperatura di 0.8 incoraggia il modello a esplorare opzioni meno probabili, risultando in risposte più creative.
Frequency Penalty

Penalizza la ripetizione di token nel testo generato, riducendo la probabilità che il modello ripeta le stesse parole o frasi.

Range Valori

0.0 - 2.0 (valori più alti aumentano la penalizzazione)

Esempio

Con frequency_penalty=1.0, il modello tende a evitare ripetizioni, rendendo il testo più vario

Presence Penalty

Penalizza la presenza di token già apparsi nel testo, incoraggiando il modello a introdurre nuovi argomenti o idee.

Range Valori -2.0 - 2.0 (valori positivi penalizzano la presenza, negativi la incentivano)
Esempio Impostando presence_penalty=1.0, il modello è spinto a introdurre concetti nuovi, evitando ridondanze.