21.06.2015 Views

I

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Als bijvoorbeeld de input van beide input neuronen 1 bedraagt (1/1), zal de verborgen unit<br />

een relatief sterke output geven (namelijk 12), wat de outputunit tot vuren aanzet. Bedraagt<br />

echter de input 1/0 of 0/1, dan zal de totale activatie (respectievelijk: drie en negen) niet de<br />

outputdrempel halen.<br />

Een recurrent network is een netwerk waarin sprake is van feedback, of terugkerende verbindingen.<br />

Dergelijke terugkerende verbindingen, die zowel exciterend of inhiberend kunnen<br />

zijn, oefenen een modulerende invloed uit op de input- of verborgen units<br />

Als een inputunit onvoldoende is geactiveerd (bijvoorbeeld niet de waarde 1, maar 0.5 heeft),<br />

kan door middel van feedback van een output (of hogere-orde unit) deze waarde worden vergroot<br />

(1/2 wordt bijvoorbeeld 1) waardoor het netwerk toch goed blijft functioneren.<br />

Een populaire en succesvolle techniek die in netwerksimulaties wordt toegepast, is backward<br />

propagation. Dit houdt een reeks van (steeds herhaalde) berekeningen in, waarbij eerst een<br />

gewenst outputpatroon (waarden van outputunits) wordt vastgesteld, en vervolgens wordt<br />

terugwerkt via de verschillende lagen van het netwerk, totdat de inputunit weer is bereikt. De<br />

startwaarden van gewichten van de tussenliggende verbindingen in het netwerk, worden volgens<br />

toeval gekozen. Vervolgens wordt de afwijking tussen de vereiste en verkregen output<br />

berekend, en worden de gewichten aangepast, afhankelijk van de mate waarin zij aan de fout<br />

bijdroegen. Na een groot aantal iteraties zullen de gewenste en verkregen oplossingen met<br />

elkaar convergeren, totdat een stabiele waarde wordt verkregen die aan het gestelde criterium<br />

voldoet.<br />

Backward propagation lijkt vanuit neural standpunt niet zo plausibel. Desondanks is de kracht<br />

van deze benadering dat door simpelweg de sterkte van de verbindingen en de activatie van<br />

de knopen te variëren, allerlei ingewikkelde berekeningen kunnen worden uitgevoerd, die een<br />

zekere gelijkenis vertonen met neurale of cognitieve functies. Het voordeel van dergelijke<br />

netwerken is dat zij een redelijke oplossing van het gestelde probleem blijven leveren, ook al<br />

vallen enkele units (zoals inputunits ) uit. Dit verschijnsel noemt men graceful degradation<br />

(geleidelijke of nauwelijks opvallende functievermindering). Hetzelfde principe lijkt ook voor de<br />

menselijke hersenschors op te gaan, waar kleine laesies of neuronaal verlies meestal maar<br />

weinig gevolgen hebben voor het goed functioneren op gedragsniveau.<br />

4.3.2 Soorten computaties<br />

Bij de indeling van de vele soorten computationele functies in het brein kan er globaal een<br />

onderscheid worden gemaakt tussen functies op het niveau van input, centrale verwerking en<br />

output (zie figuur 4.6 voor een overzicht). Vormen van computaties aan input zijde zijn analyse<br />

en synthese van stimuluskenmerken. De computationele functie van de retina is bijvoorbeeld<br />

om fysische energie (licht) om te zetten in elektrische informatie, die vervolgens via de<br />

100

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!