01.05.2013 Views

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

(p van-det-aantal-naar-focvoor-focna-rol<br />

=goal><br />

isa voorbeeld<br />

status voorbeeld-aangevraagd<br />

=retrieval><br />

isa voorbeeld<br />

focus-voor =focvoor<br />

focus-na =focna<br />

rol =rol<br />

<br />

=goal><br />

focus-voor =focvoor<br />

focus-na =focna<br />

rol =rol<br />

status zin-verwerkt<br />

)<br />

2.2 Hoe uit het analogieproces nieuwe regels ontstaan<br />

Het determinatorenmodel is gebaseerd op de nieuwste versie van ACT-R 5.0. Hierin werkt<br />

productiecompilatie iets anders dan in de vorige versie. In deze paragraaf leg ik kort uit hoe deze<br />

nieuwe productiecompilatie werkt. We zagen al dat het analogieproces bestaat uit de volgende<br />

twee stappen: (1) het model doet een retrieval request voor een geschikt voorbeeld, (2) het model<br />

gebruikt dit voorbeeld om zijn huidige doel te vervullen. Het productiecompilatiemechanisme heeft<br />

als doel de retrieval van een voorbeeld overbodig te maken. Stel dat voorbeeld A gebruikt is. Het<br />

productiecompilatiemechanisme maakt dan een nieuwe regel, waar de inhoud van voorbeeld A al<br />

ingebakken zit. Deze regel heeft echter nog een verwacht succes van 0. De nieuwe regel heeft<br />

dus nog geen kracht. Later in de simulatie worden weer twee stappen uitgevoerd, waarbij weer<br />

voorbeeld A gebruikt wordt. Dit hoeven niet precies dezelfde stappen te zijn als eerst. Als<br />

productiecompilatie dan wel weer dezelfde nieuwe regel oplevert, dan wordt deze samengevoegd<br />

met de eerder ontstane regel. De kracht van deze regel wordt daarmee ook iets verhoogt. Als dus<br />

maar vaak genoeg dezelfde twee stappen worden uitgevoerd met gebruikmaking van hetzelfde<br />

voorbeeld, dan heb je een nieuw ontstane regel, die een behoorlijk hoge succesverwachting heeft<br />

en de krachtmeting met de regels waar hij uit is ontstaan – zijn ouders – goed aankan. De nieuwe<br />

regel is sneller en efficiënter. Dit kan ertoe leiden dat de ouders niet meer meedoen in de simulatie<br />

en dat de nieuwe regel altijd gekozen wordt. Het kan ook gebeuren dat er een nieuwe regel<br />

ontstaat, die specifieker is dan zijn ouders, maar niet op de goede manier. Deze regel kan best<br />

lange tijd een grote rol spelen in de simulatie, maar als hij uiteindelijk toch niet tot de juiste<br />

resultaten leidt, zal zijn kracht op een gegeven moment niet verder toenemen en kan weer een<br />

nieuwe, ook steeds sterker wordende regel de regel gaan overvleugelen. Om het succes van<br />

nieuwe regels te kunnen bepalen, heb je echter wel een succesmaat en dus feedback nodig. In<br />

hoeverre dat in ons model kan, zal blijken in de volgende paragraaf.<br />

2.3 Succesvolle en minder succesvolle regels in een situatie zonder feedback<br />

Tijdens het experiment krijgen de kinderen geen feedback over of ze de juiste kamer hebben<br />

uitgekozen. In een deel van het experiment wordt wel gevraagd of de andere kamer ook mogelijk<br />

was geweest, maar dat laten we buiten beschouwing in ons model. In de normale, nietexperimentele<br />

situatie krijgen kinderen meestal ook geen directe feedback over hun interpretatie<br />

70

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!