01.05.2013 Views

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

proefpersonen is in sommige experimenten heel anders als gevolg van de veranderde<br />

representaties. Bij andere experimenten zijn de veranderingen in gedrag heel subtiel. De prestatie<br />

op de onderzoekstaak (percentage correcte acties) kan een tijdelijke dip vertonen als gevolg van<br />

de veranderende representaties. Meestal proberen de proefpersonen in dit geval te strak vast te<br />

houden aan een zojuist ontdekte regel of hypothese. Voorbeelden van subtiele<br />

gedragsveranderingen op het E1-niveau zijn spontane verbeteringen bij gesproken taal en het<br />

toevoegen van overbodige extra informatie aan de output.<br />

In dit onderdeel van het literatuuronderzoek ga ik verder niet inhoudelijk in op de<br />

experimenten. Ik beschrijf zeven RR-experimenten in hoofdstuk 2C: Selectie van twee geschikte<br />

experimenten. Daarin ga ik ook in op de vraag welke experimenten geschikt zijn voor een<br />

computationeel model. In de komende paragraaf wil ik me ook richten op cognitieve RR-modellen,<br />

maar dan meer vanuit het standpunt van de theorie als geheel.<br />

4 Gevolgen voor de RR-modellen<br />

In deze paragraaf wil ik de eerste stap zetten om van de theorie naar de cognitieve modellen te<br />

komen. In deze paragraaf wordt het echt interessant. Hoe kunnen we zicht krijgen op de eisen die<br />

de theorie stelt aan RR-modellen? Wat zegt de RR-theorie over hoe die veranderende interne<br />

representaties er nu precies uit zien? Laten we kijken welke antwoorden Karmiloff-Smith ons op<br />

deze vragen kan geven.<br />

4.1 Eisen die de RR-theorie zelf stelt aan RR-modellen<br />

Het zou wel mooi en handig zijn als we uit de beschrijving van de RR-theorie een lijstje van eisen<br />

kunnen halen, die aan RR-modellen worden gesteld. Karmiloff-Smith (1992) heeft eigenlijk maar<br />

één hoofdeis: dat het model de overgang van impliciete naar steeds meer expliciete<br />

representaties kan beschrijven. Zij ziet veel overeenkomsten tussen haar theorie en de<br />

uitgangspunten van het connectionisme. Het blijkt echter dat connectionistische modellen heel<br />

goed zijn in het beschrijven van het aanleren van vaardigheden op het I-niveau, maar daarna niet<br />

verder komen. Het is onduidelijk of connectionistische modellen in de toekomst wel de<br />

overgangen naar expliciete niveaus zouden kunnen modelleren, of dat dit een inherente<br />

tekortkoming is van hun architectuur. Karmiloff-Smith is zelf erg enthousiast over het<br />

connectionistische netwerken, maar zij zegt niets over de geschiktheid van andersoortige<br />

architecturen, zoals symbolische of hybride architecturen. Het zou echter wel helpen de<br />

mogelijkheden en tekortkomingen van deze drie soorten te vergelijken. In hoofdstuk 2D:<br />

Computationele modellen van verandering zal ik deze vergelijking dan ook doen. In Beyond<br />

Modularity bespreekt Karmiloff-Smith de voor- en nadelen van connectionistische netwerken.<br />

Hieronder som ik deze op en probeer ik dit in verband te brengen met eisen die de RR-theorie aan<br />

computationele modellen stelt.<br />

Eisen aan de starting state. Vanaf het moment dat we als mens geboren worden, veranderen<br />

ons brein en onze geest. Er komen meer neurale verbindingen, maar sommige verbindingen<br />

verdwijnen ook weer. Op latere leeftijd is ons brein minder flexibel en liggen de meeste<br />

verbindingen redelijk vast. Als je dus een model wilt maken van de ontwikkeling van een kind, dan<br />

moet dat model ook zijn eigen architectuur kunnen aanpassen als functie van zijn input. Neurale<br />

netwerken kunnen dit niet. Het aantal knopen ligt vantevoren al vast en kan niet uitgebreid<br />

worden. Wel kunnen neurale netwerken aangeboren voorkeuren modelleren, door het<br />

manipuleren van de beginwaarden van de verbindingen. Neurale netwerken zijn echter te<br />

domeinspecifiek. Als de zaken geregeld zijn voor een bepaalde taak, dan kan het netwerk wel een<br />

nieuwe taak leren, maar dan gaat de kennis over de eerste taak verloren. Dit maakt netwerken wel<br />

22

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!