29.09.2013 Views

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4.1. FLERLAGERSNÄT KONTRA LINJÄR REGRESSION 35<br />

ronnät och de submängder som använts. Det finns ocks˚a en standard<strong>av</strong>vikelse<br />

som benämns σi <strong>för</strong> motsvarande area. Noterbart är en ganska flukturerande<br />

prestanda med relativt stora standard<strong>av</strong>vikelser <strong>för</strong>utom 80-nodsvarianten som<br />

visar sig prestera bäst i detta fall. Att ta fram ett konkret exempel p˚a ROC-<br />

noder A50 σ50 A25 σ25 A10 σ10<br />

1 0.59 0.11 0.59 0.12 0.60 0.11<br />

5 0.62 0.08 0.64 0.07 0.65 0.07<br />

10 0.61 0.10 0.62 0.10 0.64 0.07<br />

20 0.61 0.08 0.60 0.08 0.62 0.08<br />

40 0.61 0.08 0.59 0.09 0.54 0.08<br />

80 0.66 0.06 0.66 0.05 0.67 0.03<br />

Tabell 4.2: Prestanda <strong>för</strong> o<strong>för</strong>behandlade inparametrar<br />

diagram som visualiserar prestandan <strong>för</strong> o<strong>för</strong>behandlade inparametrar görs ej d˚a<br />

den varierar väldigt mycket och det är sv˚art att f˚a en rättvis och övergripande<br />

bild vidare än den som g˚ar att tolka ur tabell 4.2.<br />

För att öka säkerheten vid initieringsfasen samt <strong>för</strong>enkla träning och generalisering<br />

<strong>för</strong>behandlas inparametrarna. I figur 4.7 visualiseras EP och EV <strong>för</strong><br />

ett neuronnät där inparametrarna är <strong>för</strong>behandlade enligt MNMX. Det blir en<br />

mycket kraftigare <strong>för</strong>skjutning mot lägre Etot d˚a nodantalet ökas. När EP faller<br />

mot noll men EV fortfarande är relativt hög kan överinlärning misstänkas. Men<br />

när b˚ada faller kan resultatet vara att generaliseringen är bibeh˚allen och därmed<br />

att en bättre analys har framkommit.<br />

I figur 4.6 visas Etot <strong>för</strong> de MNMX-<strong>för</strong>behandlade inparametrarna. I jäm<strong>för</strong>else<br />

med o<strong>för</strong>behandlade inparametrar i figur 4.5 ses en viss nedg˚ang fram till 20<br />

noder. sedan är det en stor variation med medianvärde över medelmedianvärdet.<br />

Det kan ses som en indikation p˚a sv˚ara <strong>för</strong>h˚allanden där olika analyser varierar<br />

kraftigt fr˚an varandra och de l˚aga värdena tillfälligheter som r˚akar passa<br />

<strong>för</strong> just de använda valideringsmängden. Det kan allts˚a tänkas att de generellt<br />

bästa neuronnäten finns i det sjok som som inneh˚aller 20 noder.<br />

Tabell 4.3 visar de statistiska resultaten <strong>för</strong> MNMX-<strong>för</strong>behandlade inparametrar.<br />

Nu r˚ader en lite omkastad trend gentemot de o<strong>för</strong>behandlade inparametrarna<br />

genom att 1-nodersnätet visar bra prestanda med lägst standard<strong>av</strong>vikelse<br />

överlag. Intrycket <strong>av</strong> att l˚aga Ep beror p˚a överinlärning <strong>för</strong>stärks <strong>av</strong> att arean<br />

är lägst i de fallen.<br />

noder A50 σ50 A25 σ25 A10 σ10<br />

1 0.67 0.06 0.65 0.07 0.67 0.04<br />

5 0.63 0.08 0.61 0.08 0.63 0.09<br />

10 0.60 0.08 0.60 0.09 0.60 0.09<br />

20 0.62 0.08 0.62 0.07 0.64 0.05<br />

40 0.60 0.07 0.62 0.07 0.64 0.08<br />

80 0.57 0.08 0.58 0.09 0.57 0.11<br />

Tabell 4.3: Prestanda <strong>för</strong> MNMX-<strong>för</strong>behandlade inparametrar.<br />

P˚a samma sätt har analyser med STD- och PCA-<strong>för</strong>behandlade inparame-

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!