Questa scheda offre una panoramica sintetica dei principali parametri utilizzati per influenzare le risposte dei modelli di IA generativa.
Parametri di inferenza
Limita la scelta del modello ai k token più probabili durante la generazione del testo, controllando la diversità dell'output.
Considera i token con una probabilità cumulativa fino a p, permettendo una selezione più dinamica dei token rispetto a top-k.
Controlla la casualità nella selezione dei token; valori più alti producono output più vari e creativi, mentre valori più bassi generano risposte più prevedibili.
Penalizza la ripetizione di token nel testo generato, riducendo la probabilità che il modello ripeta le stesse parole o frasi.
0.0 - 2.0 (valori più alti aumentano la penalizzazione)
Con frequency_penalty=1.0, il modello tende a evitare ripetizioni, rendendo il testo più vario
Penalizza la presenza di token già apparsi nel testo, incoraggiando il modello a introdurre nuovi argomenti o idee.