29.09.2013 Views

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

22 KAPITEL 2. BAKGRUND<br />

2.4.3 Generalisering<br />

Vid användning <strong>av</strong> artificiella neurala nätverk uppst˚ar ofta problem gällande<br />

överinlärning och generalisering. Det betyder att systemet har lärt säg träningsmängden<br />

<strong>för</strong> bra och inte kan tolka testmängden bra. Det inträffar när neuronnätet<br />

inte är perfekt anpassat i storlek <strong>för</strong> att representera träningsmängden.<br />

Det ställer ocks˚a kr<strong>av</strong> p˚a att träningsmängden ska vara n˚agorlunda utspridd och<br />

väl<strong>av</strong>vägd. När neuronnätet är <strong>för</strong> stort har det kapacitet att lära sig specifika<br />

mönster i träningsmängden s˚asom mätfel, outliers och brus. Sedan när<br />

testmängden används kan ej neuronnätet p˚a bästa sätt behandla det. Det har<br />

visats att generalisering kan uppn˚as om träningsmängden är tillräckligt stor och<br />

täcker in större delen <strong>av</strong> den utspända rymden. Detta är i praktiken ej möjligt<br />

att utnyttja i de flesta fall d˚a nödvändig stor träningsmängd växer exponentiellt<br />

i <strong>för</strong>h˚allande till neuronnätets storlek och invektorns dimensionalitet. För att<br />

motverka överinlärning finns flera metoder vara valideringen är en välanvänd.<br />

[14]<br />

Validering<br />

För att motverka problemet med överinlärning kan validering användas, det är<br />

ytterligare en datamängd som används under träningsstadiet. Det innebär ofta<br />

i praktiken att träningsmängden P delas upp i en ny mindre träningsmängd P ′<br />

och en valideringsmängd V s˚a att P ′ ∪ V = P och P ′ ∩ V = 0. Sedan tränas<br />

neuronnätet som vanligt med P ′ med den skillnaden att felet beräknas separat<br />

<strong>för</strong> b˚ade P ′ och V , vilket ger Ep′ samt Ev <strong>för</strong> varje iterering. I början minskar<br />

<strong>för</strong>hoppningsvis b˚ada felen medans senare kommer de skiljas˚at och i de flesta fall<br />

börjar Ev öka igen alltjämt medans Ep′ fortfarande minskar. För att d˚a beh˚alla<br />

generaliseringen sätts stoppkriteriet med <strong>av</strong>seende p˚a valideringsmängdens fel<br />

Ev <strong>för</strong>slagsvis när det ökar med en viss hastighet. P˚a s˚a sätt kan träningen<br />

<strong>av</strong>slutas när generaliseringen är i fara till <strong>för</strong>del <strong>för</strong> överträningen. [14]<br />

2.4.4 Prestanda <strong>för</strong> ett flerlagersnät<br />

Flerlagers fram˚atkopplade neuronnät lämpar sig väl <strong>för</strong> beskrivning <strong>av</strong> ickelinjära<br />

samband. I [13] presenteras resultat där flerlagersnät presterar bättre än<br />

linjär regression vid <strong>för</strong>sök att <strong>diagnos</strong>ticera prostatacancer.<br />

Om ett <strong>för</strong>sök ska göras <strong>för</strong> att poängtera de <strong>för</strong>delar ett neuronnät har och<br />

vilken kapacitet och prestanda det har görs det med hänvisning till [14] och<br />

[15] där det beskrivs hur kapaciteten ökar med ökat antal noder. Det g˚ar att<br />

beskriva vilken arbiträr funktion som helst, täcka in vilken delrymd som helst<br />

ur en större rymd och mappa en mängd till en annan genom att använda ett<br />

gömt lager med ändligt antal noder. [14, 15]<br />

Det finns dock vissa sv˚arigheter, de extrema exempel ovan kräver en stor<br />

och välordnad träningsmängd <strong>för</strong> att inte nätet ska mista sin generalisering och<br />

inte kunna bearbeta senare testmängd. Det kan ocks˚a löna sig att använda fler<br />

gömda lager <strong>för</strong> att lättare f˚a resultat, dock ökar d˚a träningstiden exponentiellt.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!