Skip to main content
Completion requirements
View

1. Esempi di parametri


Questa scheda offre una panoramica sintetica dei principali parametri utilizzati per influenzare le risposte dei modelli di IA generativa.

Parametri di inferenza

Top-k

Limita la scelta del modello ai k token più probabili durante la generazione del testo, controllando la diversità dell'output.

Range Valori Intero positivo (es. 50)
Esempio Impostando top-k=50, il modello considererà solo le 50 opzioni più probabili per ogni passo nella generazione.
Top-p (Nucleus Sampling)

Considera i token con una probabilità cumulativa fino a p, permettendo una selezione più dinamica dei token rispetto a top-k.

Range Valori 0.0 - 1.0 (es. 0.9)
Esempio Con top-p=0.9, il modello includerà i token che coprono il 90% della probabilità cumulativa.
Temperatura

Controlla la casualità nella selezione dei token; valori più alti producono output più vari e creativi, mentre valori più bassi generano risposte più prevedibili.

Range Valori 0.0 - 1.0 (es. 0.2 per risposte conservative, 0.8 per risposte creative)
Esempio Una temperatura di 0.8 incoraggia il modello a esplorare opzioni meno probabili, risultando in risposte più creative.
Frequency Penalty

Penalizza la ripetizione di token nel testo generato, riducendo la probabilità che il modello ripeta le stesse parole o frasi.

Range Valori

0.0 - 2.0 (valori più alti aumentano la penalizzazione)

Esempio

Con frequency_penalty=1.0, il modello tende a evitare ripetizioni, rendendo il testo più vario

Presence Penalty

Penalizza la presenza di token già apparsi nel testo, incoraggiando il modello a introdurre nuovi argomenti o idee.

Range Valori -2.0 - 2.0 (valori positivi penalizzano la presenza, negativi la incentivano)
Esempio Impostando presence_penalty=1.0, il modello è spinto a introdurre concetti nuovi, evitando ridondanze.
loader image