UNIVERSITA' DEGLI STUDI DI PAVIA - Robotica
UNIVERSITA' DEGLI STUDI DI PAVIA - Robotica
UNIVERSITA' DEGLI STUDI DI PAVIA - Robotica
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
maggiori di 1. Si è notato che dei buoni valori sono generalmente contenuti<br />
nell’intervallo [1.5, 4].<br />
C’è però un problema nell’utilizzare questo espediente. Aumentando troppo<br />
β diventa sempre più importante la determinazione dei pesi di partenza dei<br />
neuroni, come descritto nel paragrafo seguente.<br />
4.8.2 Determinazione dei pesi iniziali<br />
La seconda importante osservazione derivata dai test sulle reti è data dalla<br />
necessità di impostare i pesi e le soglie iniziali in modo che siano sufficientemente<br />
piccoli. Dei pesi troppo grandi possono dare luogo all’annullamento dell’errore<br />
sul training set, in quanto la formula che calcola l’errore sul singolo training<br />
sample contiene un temine del tipo<br />
y j ⋅(<br />
1−<br />
y j )<br />
che moltiplica tutto il resto, dove y i è l’uscita della sigmoide calcolata sulla<br />
somma degli ingressi del neurone.<br />
Si capisce che quanto più i pesi sono grandi, quanto più è facile che il punto<br />
nel quale viene valutata la sigmoide si trovi nel tratto asintotico. In questo caso il<br />
valore di y i vale 0 oppure 1, e l’errore sul training sample si annulla. Questo<br />
problema si amplifica quanto più la forma della sigmoide tende a quella di uno<br />
scalino, in quanto il range disponibile per una buona valutazione della sigmoide si<br />
riduce.<br />
Durante i test è capitato che fossero nulli gli errori su tutti i training sample<br />
(per valori di β troppo alti), e che quindi l’errore globale precipitasse di colpo a<br />
0, ingannando la procedura di addestramento e facendole “credere” di aver<br />
raggiunto il minimo assoluto dell’errore.<br />
90