Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
(p van-det-aantal-naar-focvoor-focna-rol<br />
=goal><br />
isa voorbeeld<br />
status voorbeeld-aangevraagd<br />
=retrieval><br />
isa voorbeeld<br />
focus-voor =focvoor<br />
focus-na =focna<br />
rol =rol<br />
<br />
=goal><br />
focus-voor =focvoor<br />
focus-na =focna<br />
rol =rol<br />
status zin-verwerkt<br />
)<br />
2.2 Hoe uit het analogieproces nieuwe regels ontstaan<br />
Het determinatorenmodel is gebaseerd op de nieuwste versie van ACT-R 5.0. Hierin werkt<br />
productiecompilatie iets anders dan in de vorige versie. In deze paragraaf leg ik kort uit hoe deze<br />
nieuwe productiecompilatie werkt. We zagen al dat het analogieproces bestaat uit de volgende<br />
twee stappen: (1) het model doet een retrieval request voor een geschikt voorbeeld, (2) het model<br />
gebruikt dit voorbeeld om zijn huidige doel te vervullen. Het productiecompilatiemechanisme heeft<br />
als doel de retrieval van een voorbeeld overbodig te maken. Stel dat voorbeeld A gebruikt is. Het<br />
productiecompilatiemechanisme maakt dan een nieuwe regel, waar de inhoud van voorbeeld A al<br />
ingebakken zit. Deze regel heeft echter nog een verwacht succes van 0. De nieuwe regel heeft<br />
dus nog geen kracht. Later in de simulatie worden weer twee stappen uitgevoerd, waarbij weer<br />
voorbeeld A gebruikt wordt. Dit hoeven niet precies dezelfde stappen te zijn als eerst. Als<br />
productiecompilatie dan wel weer dezelfde nieuwe regel oplevert, dan wordt deze samengevoegd<br />
met de eerder ontstane regel. De kracht van deze regel wordt daarmee ook iets verhoogt. Als dus<br />
maar vaak genoeg dezelfde twee stappen worden uitgevoerd met gebruikmaking van hetzelfde<br />
voorbeeld, dan heb je een nieuw ontstane regel, die een behoorlijk hoge succesverwachting heeft<br />
en de krachtmeting met de regels waar hij uit is ontstaan – zijn ouders – goed aankan. De nieuwe<br />
regel is sneller en efficiënter. Dit kan ertoe leiden dat de ouders niet meer meedoen in de simulatie<br />
en dat de nieuwe regel altijd gekozen wordt. Het kan ook gebeuren dat er een nieuwe regel<br />
ontstaat, die specifieker is dan zijn ouders, maar niet op de goede manier. Deze regel kan best<br />
lange tijd een grote rol spelen in de simulatie, maar als hij uiteindelijk toch niet tot de juiste<br />
resultaten leidt, zal zijn kracht op een gegeven moment niet verder toenemen en kan weer een<br />
nieuwe, ook steeds sterker wordende regel de regel gaan overvleugelen. Om het succes van<br />
nieuwe regels te kunnen bepalen, heb je echter wel een succesmaat en dus feedback nodig. In<br />
hoeverre dat in ons model kan, zal blijken in de volgende paragraaf.<br />
2.3 Succesvolle en minder succesvolle regels in een situatie zonder feedback<br />
Tijdens het experiment krijgen de kinderen geen feedback over of ze de juiste kamer hebben<br />
uitgekozen. In een deel van het experiment wordt wel gevraagd of de andere kamer ook mogelijk<br />
was geweest, maar dat laten we buiten beschouwing in ons model. In de normale, nietexperimentele<br />
situatie krijgen kinderen meestal ook geen directe feedback over hun interpretatie<br />
70