29.09.2013 Views

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

Analys av myokardiella hastighetsvariabler för diagnos av ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

20 KAPITEL 2. BAKGRUND<br />

function s(•) kan vikterna uppdateras enligt<br />

∆wi = αs ′ (a)(t p − y p )x p<br />

i<br />

(2.22)<br />

som används p˚a samma sätt som (2.20) i träningsalgoritmen. Alla indexeringar<br />

<strong>av</strong> parametrar har hittills gjorts <strong>för</strong> användandet <strong>av</strong> enbart en nod. Om istället<br />

ett nät med ett lager som har M stycken noder används beräknas felet enligt<br />

e p = 1<br />

2<br />

M<br />

(t p<br />

j=1<br />

j<br />

− yp<br />

j )2<br />

där j betecknar noderna i lagret. Viktuppdateringsfunktionen blir s˚aledes<br />

∆wji = αs ′ (aj)(t p<br />

j − yp j )xpji<br />

(2.23)<br />

(2.24)<br />

Denna algoritm är tillräkligt kraftfull <strong>för</strong> att anpassas p˚a flerlagersnät och det<br />

visas kort i styckte 2.4.1. Det är ocks˚a en fullständig metod <strong>för</strong> att automatiskt<br />

ställa in vikterna <strong>för</strong> en viss mönstermängd med tillhörande m˚aldata. Det enda<br />

kvarvarande fr˚agetecknet är egentligen hur man initierar vikterna. Det finns<br />

flera lösningar p˚a det var<strong>av</strong> den enklaste är att sätta dem till ett slumpvis valt<br />

värde inom ett visst intervall. [14]<br />

2.4.1 Fram˚atkopplade Flerlagersnät<br />

Fram˚atkopplat flerlagersnät är den typen som i huvudsak används vid analys<br />

i detta examensarbete med anledning <strong>av</strong> att det är tillräckligt kraftfullt och<br />

passar applikationen.<br />

Flerlagersnät är precis som det l˚ater ett neuronnät som är uppbyggt i lager,<br />

där varje lager inneh˚aller ett visst antal noder. Fram˚atkopplade innebär att<br />

det endast finns kopplingar fram˚at i nätet och där<strong>för</strong> ett lager som tar emot<br />

insignalen x och ett lager som ger utsignalen y som i v˚arat fall oftast är endimensionellt<br />

och betecknas y. De lager som befinner sig i mitten brukar kallas<br />

gömda lager eftersom b˚ade deras utsignal och deras antal inte syns, och behöver<br />

ej synas, utifr˚an. I slutet p˚a <strong>för</strong>ra stycket beskrevs hur delta-algoritmen kunde<br />

anpassas <strong>för</strong> enlagersnät med flera noder i lagret. P˚a samma sätt kan den ocks˚a<br />

anpassas <strong>för</strong> fler lager genom att kasta felet bak˚at i nätet, det vill säga emot<br />

fram˚atkopplingen. Det betyder att fram˚atkopplingen upphävs under träningsstadiet.<br />

Dock enbart <strong>för</strong> felet, ej <strong>för</strong> de vanliga signalerna. Denna träningsalgoritm<br />

kallas backpropagation.<br />

Strukturen <strong>av</strong> ett flerlagersnätverk är till sin uppbyggnad baserat p˚a en<br />

lagerstruktur. Anslutningarna mellan lagren kan dock skilja en del s˚a att formen<br />

varierar. Exempelvis kan vissa lager <strong>för</strong>bikopplas s˚a att man uppn˚ar vissa<br />

önskade effekter. Det innebär att insignalerna är kopplade dels direkt och dels<br />

via <strong>för</strong>sta lagret till andra lagret. Begränsningen fram˚atkoppling innebär dock<br />

att inga kopplingar finns mellan högre lager och lägre. Det ska dock betonas<br />

att det p˚a inget sätt är n˚agon universiell begränsning <strong>för</strong> neuronnät utan bara<br />

i detta fall när vi vill använda denna träningsmetod. Det kan nämnas att det<br />

finns gott om ˚aterkopplade varianter p˚a neuronnät där kopplingar sker fram˚at,<br />

bak˚at, sidledes och även direkt till samma nod.<br />

För det översta lagret fungerar samma viktuppdatering som <strong>för</strong>ut (2.24),<br />

d˚a man har tillg˚ang till utsignalen. För de noder i de gömda lagren kan denna

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!