Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Verband met RR-theorie: Het proces dat het model doorloopt om de verleden tijd te leren, heeft<br />
veel raakvlakken met experimenten binnen de RR-theorie. Het model begint op het behavioral<br />
mastery niveau, maar leert verder. De impliciete kennis, die het model uit de voorbeelden haalt,<br />
wordt omgezet in een productieregel, die de regel voor regelmatige werkwoorden representeert.<br />
Deze regel wordt eerst te veel toegepast, maar later heeft het model een evenwicht bereikt tussen<br />
de regel en de uitzonderingen. Bij veel RR-experimenten zien we een vergelijkbare ontwikkeling.<br />
Implementatie van veranderende representaties: Het simuleren van het veranderen van<br />
representaties wordt bewerkstelligd door het productiecompilatiemechanisme dat in ACT-R<br />
ingebakken zit. In twee productieregels zit een algemenere analogiestrategie, die vaak wordt<br />
gebruikt. Als deze twee productieregels een bepaald aantal keer met succes zijn gebruikt, zijn ze<br />
zo sterk, dat ze voor specialisatie in aanmerking komen. Er ontstaat een nieuwe productieregel,<br />
die "afstamt" van de twee oude, maar gespecialiseerder is, omdat er geen voorbeeld meer wordt<br />
opgezocht in het declaratieve geheugen, waarop een analogieproces wordt uitgeoefend. In plaats<br />
daarvan implementeert de regel direct het gevolg van het analogieproces. In dit geval is dat -ed<br />
achter de stam van het woord plakken.<br />
3.5 Het ACT-R model van de Balance Scale Task (BST)<br />
Van de BST is ook een ACT-R model gemaakt (Van Rijn et al., in press). Van Rijn et al. hebben<br />
eigenlijk twee ACT-R modellen gemaakt, maar voor dit literatuuronderzoek heb ik slechts één van<br />
deze twee bestudeerd, namelijk het model dat niet met feedback werkt. Dit model simuleert in<br />
detail de overgang tussen Sieglers regel 1 en regel 2 (Siegler, 1981).<br />
Aannames:<br />
1. Als kinderen geconfronteerd worden met een item uit de BST, zullen ze beginnen met het<br />
zoeken naar een ongelijkheid.<br />
2. De voorkeur voor de dimensie gewicht kan worden gemodelleerd door extra activatie van<br />
de chunk die de dimensie gewicht representeert.<br />
3. In de experimentele taak van Jansen en Van der Maas (zie experimenten) wordt de mate<br />
waarin de dimensie afstand opvalt, gemanipuleerd. Deze manipulatie wordt in het model<br />
weergegeven door een extra component in de chunk-activatie-formule.<br />
Architectuur: Het model is gemaakt in ACT-R, versie 5.0. Het maakt dus gebruik van de nieuwste<br />
manier om nieuwe productieregels te leren. Het model leert zonder feedback. De balance scale<br />
items worden aangeboden en het model geeft telkens een antwoord, maar het krijgt niet te horen<br />
of dat antwoord juist was.<br />
Startkennis: Het model begint zonder enige specifieke productieregels voor de BST. Er zijn<br />
slechts algemene productieregels aanwezig, die declaratieve representaties interpreteren. Ook is<br />
er een productieregel die een antwoord kan produceren, bijvoorbeeld een gok. Er zijn een aantal<br />
declaratieve actiechunks aanwezig:<br />
• Als er een antwoord gegeven moet worden op een verschilprobleem, probeer dan een nog<br />
niet gebruikt aspect op te halen om het probleem op te lossen.<br />
• Als je een aspect hebt geselecteerd, probeer dan de bijbehorende waardes op te halen.<br />
• Als de opgehaalde waardes gelijk zijn, begin dan opnieuw.<br />
• Als de opgehaalde waardes ongelijk zijn, baseer dan je antwoord op het gevonden verschil.<br />
Omgeving/input: De input voor het model bestaat uit random balance scale items. Andere<br />
computationele benaderingen (bijvoorbeeld McClelland, zie paragraaf 2.1) zorgden ervoor dat er<br />
in de input meer items zaten, waarbij alleen letten op gewicht genoeg was, maar in bij dit model<br />
was dat dus niet zo. Aanname 2 zorgt ervoor dat er toch een voorkeur voor de dimensie gewicht is<br />
aan het begin. Een ander punt dat met de omgeving te maken heeft, is de manier waarop mensen<br />
regel 4 van Siegler aanleren (de regel, waarbij gewicht en afstand worden vermenigvuldigd). Van<br />
43