01.06.2013 Views

Metodi e strumenti di misura per l'esecuzione di test non distruttivi ...

Metodi e strumenti di misura per l'esecuzione di test non distruttivi ...

Metodi e strumenti di misura per l'esecuzione di test non distruttivi ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Capitolo 3 Sviluppo ed ottimizzazione del sistema basato sulla Sonda Fluxset<br />

conseguente alla limitatezza delle funzioni implementabili. La somma <strong>di</strong> questi due errori<br />

costituisce l’errore <strong>di</strong> generalizzazione.<br />

Vapkin ha <strong>di</strong>mostrato che esiste un termine <strong>di</strong> maggiorazione <strong>per</strong> il rischio atteso, <strong>di</strong>pendente<br />

dal rischio empirico e dalla capacità <strong>di</strong> apprendere dagli esempi mostrati, ma in<strong>di</strong>pendente<br />

dalla <strong>di</strong>stribuzione <strong>di</strong> probabilità.<br />

È quin<strong>di</strong> necessario trovare una classe <strong>di</strong> funzioni in grado <strong>di</strong> addestrare una macchina; <strong>per</strong><br />

quanto riguarda la classificazione automatica, dato un insieme D tale che x, cx ( ) ∈ XxB,<br />

trova la funzione h(x) tale che hx ( ) cx ( )<br />

effettuare una pre<strong>di</strong>zione <strong>per</strong><br />

similarità:<br />

k: XxX →ℜ<br />

(x,x’) α k(x,x’).<br />

Tali funzioni prendono il nome <strong>di</strong> Kernel.<br />

≈ . In generale, se dato un nuovo '<br />

x ∈ X si vuole<br />

'<br />

cx ( ) è necessario trovare una funzione che ne caratterizzi la<br />

Nel caso in cui i dati <strong>non</strong> siamo linearmente separabili ci sono due possibilità <strong>per</strong> lavorare su<br />

<strong>di</strong> essi: è possibile fare riferimento alle SVM <strong>non</strong> lineari oppure rilassare i vincoli <strong>di</strong> corretta<br />

classificazione tenendo conto della <strong>non</strong> <strong>per</strong>fetta separazione tra le due classi e tollerando un<br />

certo numero <strong>di</strong> errori.<br />

Nel caso <strong>di</strong> rilassamento dei vincoli si introducono le slack variables<br />

ξ = , γ<br />

i<br />

saranno:<br />

( 0 − ( w • x + b)<br />

)<br />

max ci i , e a seconda del valore assunto da i<br />

ξ i punti del training set<br />

- Disposti al <strong>di</strong> là degli i<strong>per</strong>piani <strong>di</strong> separazione e correttamente classificati ( ξ = 0)<br />

;<br />

- Posti tra gli i<strong>per</strong>piani <strong>di</strong> separazione e correttamente classificati ( 0 ξ ≤ 1)<br />

;<br />

- Erroneamente classificati ( ξ > 1)<br />

.<br />

Il problema <strong>di</strong> ottimizzazione <strong>di</strong>venta:<br />

i<br />

≤ i<br />

i<br />

145

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!