01.05.2013 Views

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

Afstudeerscriptie - Kunstmatige Intelligentie - Rijksuniversiteit ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Verband met RR-theorie: Het proces dat het model doorloopt om de verleden tijd te leren, heeft<br />

veel raakvlakken met experimenten binnen de RR-theorie. Het model begint op het behavioral<br />

mastery niveau, maar leert verder. De impliciete kennis, die het model uit de voorbeelden haalt,<br />

wordt omgezet in een productieregel, die de regel voor regelmatige werkwoorden representeert.<br />

Deze regel wordt eerst te veel toegepast, maar later heeft het model een evenwicht bereikt tussen<br />

de regel en de uitzonderingen. Bij veel RR-experimenten zien we een vergelijkbare ontwikkeling.<br />

Implementatie van veranderende representaties: Het simuleren van het veranderen van<br />

representaties wordt bewerkstelligd door het productiecompilatiemechanisme dat in ACT-R<br />

ingebakken zit. In twee productieregels zit een algemenere analogiestrategie, die vaak wordt<br />

gebruikt. Als deze twee productieregels een bepaald aantal keer met succes zijn gebruikt, zijn ze<br />

zo sterk, dat ze voor specialisatie in aanmerking komen. Er ontstaat een nieuwe productieregel,<br />

die "afstamt" van de twee oude, maar gespecialiseerder is, omdat er geen voorbeeld meer wordt<br />

opgezocht in het declaratieve geheugen, waarop een analogieproces wordt uitgeoefend. In plaats<br />

daarvan implementeert de regel direct het gevolg van het analogieproces. In dit geval is dat -ed<br />

achter de stam van het woord plakken.<br />

3.5 Het ACT-R model van de Balance Scale Task (BST)<br />

Van de BST is ook een ACT-R model gemaakt (Van Rijn et al., in press). Van Rijn et al. hebben<br />

eigenlijk twee ACT-R modellen gemaakt, maar voor dit literatuuronderzoek heb ik slechts één van<br />

deze twee bestudeerd, namelijk het model dat niet met feedback werkt. Dit model simuleert in<br />

detail de overgang tussen Sieglers regel 1 en regel 2 (Siegler, 1981).<br />

Aannames:<br />

1. Als kinderen geconfronteerd worden met een item uit de BST, zullen ze beginnen met het<br />

zoeken naar een ongelijkheid.<br />

2. De voorkeur voor de dimensie gewicht kan worden gemodelleerd door extra activatie van<br />

de chunk die de dimensie gewicht representeert.<br />

3. In de experimentele taak van Jansen en Van der Maas (zie experimenten) wordt de mate<br />

waarin de dimensie afstand opvalt, gemanipuleerd. Deze manipulatie wordt in het model<br />

weergegeven door een extra component in de chunk-activatie-formule.<br />

Architectuur: Het model is gemaakt in ACT-R, versie 5.0. Het maakt dus gebruik van de nieuwste<br />

manier om nieuwe productieregels te leren. Het model leert zonder feedback. De balance scale<br />

items worden aangeboden en het model geeft telkens een antwoord, maar het krijgt niet te horen<br />

of dat antwoord juist was.<br />

Startkennis: Het model begint zonder enige specifieke productieregels voor de BST. Er zijn<br />

slechts algemene productieregels aanwezig, die declaratieve representaties interpreteren. Ook is<br />

er een productieregel die een antwoord kan produceren, bijvoorbeeld een gok. Er zijn een aantal<br />

declaratieve actiechunks aanwezig:<br />

• Als er een antwoord gegeven moet worden op een verschilprobleem, probeer dan een nog<br />

niet gebruikt aspect op te halen om het probleem op te lossen.<br />

• Als je een aspect hebt geselecteerd, probeer dan de bijbehorende waardes op te halen.<br />

• Als de opgehaalde waardes gelijk zijn, begin dan opnieuw.<br />

• Als de opgehaalde waardes ongelijk zijn, baseer dan je antwoord op het gevonden verschil.<br />

Omgeving/input: De input voor het model bestaat uit random balance scale items. Andere<br />

computationele benaderingen (bijvoorbeeld McClelland, zie paragraaf 2.1) zorgden ervoor dat er<br />

in de input meer items zaten, waarbij alleen letten op gewicht genoeg was, maar in bij dit model<br />

was dat dus niet zo. Aanname 2 zorgt ervoor dat er toch een voorkeur voor de dimensie gewicht is<br />

aan het begin. Een ander punt dat met de omgeving te maken heeft, is de manier waarop mensen<br />

regel 4 van Siegler aanleren (de regel, waarbij gewicht en afstand worden vermenigvuldigd). Van<br />

43

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!