24.09.2013 Views

Rapportage EMP-project - Landscape of Digital Testing and ...

Rapportage EMP-project - Landscape of Digital Testing and ...

Rapportage EMP-project - Landscape of Digital Testing and ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Rapportage</strong> <strong>EMP</strong>-<strong>project</strong><br />

‘Voorwaarden voor de realisering van een<br />

papierloos toetstijdperk voor de opleiding GNK en<br />

<strong>and</strong>ere opleidingen in en buiten het UMC Utrecht’<br />

September 2007-september 2008<br />

Projectteam:<br />

dOO-UMCU<br />

Willie Hols (<strong>project</strong>leider)<br />

Anke Bootsma<br />

Olle ten Cate<br />

IVLOS<br />

Robert-Jan Simons<br />

Magda Ritzen<br />

Versie 1.0, 26 september 2008


Samenvatting <strong>EMP</strong>-rapportage 5<br />

1. Inleiding 6<br />

2. Digitaal toetsen in het UMCU: st<strong>and</strong> van zaken 8<br />

3. Pilots met digitaal toetsen 9<br />

4. R<strong>and</strong>voorwaarden digitaal toetsen in UMCU 12<br />

4.1 Inleiding 12<br />

4.2 Onderwijskundige r<strong>and</strong>voorwaarden (o.a. itembanken) 12<br />

4.3 Organisatorische r<strong>and</strong>voorwaarden 12<br />

4.4 Technische r<strong>and</strong>voorwaarden 13<br />

4.5 Financiele r<strong>and</strong>voorwaarden 13<br />

4.6 Conclusie (inclusief haalbaarheid binnen UMCU) 13<br />

4.7 Schets van toepassingsscenario elektronische toetsafname 14<br />

5. Mogelijkheden van digitaal toetsen 16<br />

5.1 Intro 16<br />

5.2 Mogelijkheden 16<br />

5.3 Conclusie 24<br />

6. Wensen en beleid in UMCU m.b.t. digitaal toetsen 25<br />

6.1 Algemeen 25<br />

6.2 Medewerkers 25<br />

6.3 Conclusie 26<br />

7. Het vervolg 27<br />

7.1 Uitgangspunten 27<br />

7.2 <strong>EMP</strong> voorstel Ontwikkeling en invoering Digitaal toetsen 27<br />

Literatuur 29<br />

Bijlage 1 Matrix wel/niet digitaal toetsen 31<br />

Bijlage 2 Verslagen brainstormsessies 41<br />

Bijlage 3 Tips om fraude te voorkomen 44<br />

Bijlage 4 Twelve tips for computer-based assessment in medical education 45<br />

Bijlage 5 Advies inzet stemkastjes als toetsmethode 55<br />

Bijlage 6 Stappenplan implementatie computer based assessment 63<br />

Bijlage 7 Materialen TestVision 70<br />

3


Samenvatting <strong>EMP</strong>-rapportage<br />

Naam <strong>project</strong><br />

‘Voorwaarden voor de realisering van een papierloos toetstijdperk voor de opleiding GNK en <strong>and</strong>ere<br />

opleidingen in en buiten het UMC Utrecht’<br />

Faculteit/opleiding: dOO-UMCU<br />

Looptijd: september 2008 tot september 2009<br />

Projectresultaat<br />

• Een rapport dat antwoord geeft op de vragen:<br />

1. aan welke r<strong>and</strong>voorwaarden moet worden voldaan - financieel, organisatorisch en in <strong>and</strong>er<br />

opzicht – om schriftelijke toetsing in de opleiding geneeskunde volledig te verlaten,<br />

2. welke mogelijkheden zijn er om aan die voorwaarden te voldoen,<br />

3. wat is de kosten/baten verhouding en is er draagvlak in en buiten het buiten het UMCU om<br />

aan deze overstap te werken?<br />

Zie ho<strong>of</strong>dstuk 4.<br />

• Het rapport bevat tevens een overzicht gegeven van de toegenomen (onderwijskundige)<br />

mogelijkheden van het elektronisch toetsen.<br />

Zie ho<strong>of</strong>dstuk 5.<br />

• Een plan, waarin de volgende stap naar papierloos toetsen is uitgewerkt.<br />

Zie ho<strong>of</strong>dstuk 7.<br />

Ervaringen / lessen voor collega’s, bv. opleidingsdirecteuren:<br />

• Digitaal Toetsen vraagt om investering en veronderstelt een keuze op opleidingsniveau.<br />

• Investering is nodig in:<br />

o aanschaf van toetss<strong>of</strong>tware, computers, bedrijfszekere en beveiligde infrastructuur.<br />

o ondersteuning van docenten (leren werken met toetss<strong>of</strong>tware, didactische<br />

ondersteuning, ondersteuning bij afname).<br />

• Uitgaan van een gemeenschappelijk ontwerp van een itembank.<br />

• Inzet van digitale toetsen draagt onder <strong>and</strong>ere bij aan de verbetering van de kwaliteit van de<br />

toetsen.<br />

• Besteed a<strong>and</strong>acht aan (het ontsluiten en presenteren van) de goede voorbeelden van collega’s.<br />

• Het voorkomen van fraude tijdens afname van toetsen is relatief eenvoudig te realiseren.<br />

• Zet studenten en co-assistenten in bij de ontwikkeling van een itembank / vervanging van<br />

huidige schriftelijke vragen (staflid blijft verantwoordelijk).<br />

• Stemkastjes zijn niet geschikt voor summatieve toetsing.<br />

Producten/documenten:<br />

• R<strong>and</strong>voorwaarden digital toetsen (ho<strong>of</strong>dstuk 4)<br />

• Overzicht mogelijkheden digitaal toetsen (ho<strong>of</strong>dstuk 5)<br />

• Plan 08/09 Implementatie digitaal toetsen (ho<strong>of</strong>dstuk 7)<br />

• Matrix wel/niet digitaal toetsen (bijlage 1)<br />

• Tips om fraude bij toetsafname te voorkomen (bijlage 3)<br />

• Twelve Tips for computer-based assessment in medical education (bijlage 4)<br />

• Advies inzet stemkastjes bij responsiecolleges (bijlage 5)<br />

• Stappenplan implementatie computer based assessment (bijlage 6)<br />

• Beknopte h<strong>and</strong>leiding voor de docent bij de uitvoering van Testvision (bijlage 7)<br />

• Materialen Testvision (bijlage 8)<br />

Projectleider: Willie Hols<br />

Telefoon: 088-7556350<br />

e-mail adres: w.p.m.hols@umcutrecht.nl<br />

5


1. Inleiding<br />

In het <strong>EMP</strong>-<strong>project</strong> ‘Voorwaarden voor de realisering van een papierloos toetstijdperk voor de<br />

opleiding Geneeskunde en <strong>and</strong>ere opleidingen in en buiten het UMC Utrecht’ staan de<br />

mogelijkheden, wensen en voorwaarden van digitaal toetsen centraal. Het start vanuit het<br />

gegeven, dat schriftelijke tentamens al zeer lang de dominante vorm van toetsing in het hoger<br />

onderwijs: het is de vraag <strong>of</strong> de laatste fase hiervan niet is aangebroken. In de literatuur worden<br />

verschillende argumenten genoemd voor digitaal te toetsen (Verkroost, 2002; Milius, 2007), zoals<br />

verbetering van de kwaliteit van de toetsvragen op basis van de resultaten van toets- en<br />

vraaganalyse, tijdwinst door het gebruik van een itembank en het geautomatiseerd nakijken,<br />

grotere betrouwbaarheid doordat het gemakkelijker is om verschillende toetsen samen te stellen<br />

met een vergelijkbare moeilijkheidsgraad en mogelijkheden om beeld en geluid toe te voegen.<br />

Op termijn levert digitaal toetsen tijdswinst op voor de docent (Bull & Stevens 1999) en doordat de<br />

student meer inzicht krijgt in de eigen voortgang, verhoogt het de betrokkenheid van studenten<br />

(Sambell et all 1999).<br />

Toetsing is een proces dat start met een ontwerp, daarna wordt de toets samengesteld,<br />

opgeslagen, afgenomen, nagekeken, beoordeeld, geanalyseerd, geëvalueerd en worden de<br />

toetsresultaten vrijgegeven.<br />

Het ontwerpen, beheren, afnemen en verwerken van toetsen geschiedt al gedeeltelijk en in<br />

wisselende mate met elektronische hulpmiddelen, met name voor kleinere groepen studenten en<br />

voor toetsen die een formatieve functie vervullen. Formatief digitaal toetsen stelt minder hoge<br />

eisen aan beveiliging en voorkoming van fraude dan summatief toetsen.<br />

Op dit moment zijn veel instellingen voor hoger onderwijs geïnteresseerd in de mogelijkheden van<br />

digitaal toetsen, maar er is terughoudend in het invoeren van digitale summatieve toetsing (zie<br />

Daniels & Van der Vleuten, 2002). Deze terughoudendheid heeft te maken met:<br />

• De hoeveelheid tijd die nodig is om een toetsprogramma te leren kennen en –in afstemming<br />

met collega’s- een vragenbank in te richten en te vullen.<br />

• Het ontbreken van faciliteiten, dat wil zeggen grote computerzalen (300 studenten).<br />

• De angst voor een onvoldoende beveiligd netwerk waardoor scores aangepast kunnen worden.<br />

Men vreest dat studenten gebruik maken van ongeoorlo<strong>of</strong>de digitale informatiebronnen bij het<br />

beantwoorden van de vragen en dat ze inloggen onder een <strong>and</strong>ere naam. Ook is men bang<br />

voor uitval van het netwerk op het moment dat studenten de toets maken.<br />

• Het ontbreken van beleid op dit terrein: in toetsbeleid wordt niet alleen aangegeven waarom en<br />

hoe men digitaal wil toetsen, maar ook hoeveel belang men er aan hecht en waarin wordt<br />

geïnvesteerd (infrastructuur, faciliteiten en ondersteuning).<br />

Hols-Elders e.a. (2008) voegen daar specifiek voor het Nederl<strong>and</strong>se medisch onderwijs aan toe:<br />

• Gebrek aan technische kennis en vaardigheden op het terrein van digitaal toetsen bij medische<br />

docenten.<br />

• Gebrek aan tijd en gevoel van ‘noodzaak’.<br />

• Onvoldoende voorzieningen, zoals diverse vormen van ondersteuning en computerfaciliteiten.<br />

Het <strong>project</strong> beoogt antwoord te geven op de vraag aan welke r<strong>and</strong>voorwaarden moet worden<br />

voldaan - financieel, organisatorisch en in <strong>and</strong>er opzicht – om schriftelijke toetsing in de opleiding<br />

geneeskunde volledig te verlaten, welke mogelijkheden zijn er om aan die voorwaarden te voldoen,<br />

wat is de kosten/baten verhouding en is er draagvlak in en buiten het buiten het UMCU om aan<br />

deze overstap te werken? De antwoorden op deze vragen staan in deze rapportage, evenals een<br />

overzicht van de toegenomen (onderwijskundige) mogelijkheden van het elektronisch toetsen en<br />

een werkplan, waarin de volgende stap naar papierloos toetsen is uitgewerkt.<br />

De context van dit <strong>project</strong> is het onderwijs van het UMC Utrecht, de resultaten zijn eveneens<br />

bruikbaar in <strong>and</strong>ere opleidingen van de Universiteit Utrecht.<br />

In het <strong>project</strong> zijn verschillende activiteiten uitgevoerd. De resultaten hiervan zijn per ho<strong>of</strong>dstuk<br />

beschreven. Ho<strong>of</strong>dstuk 2 bevat een inventarisatie van de huidige st<strong>and</strong> van zaken op het terrein<br />

6


van toetsing binnen de directie Onderwijs en Opleidingen (dOO) van het Universitair Medisch<br />

Centrum Utrecht (UMCU): wat wordt getoetst, op welke manier en met welk doel (formatief <strong>of</strong><br />

summatief). Ho<strong>of</strong>dstuk 3 beschrijft de resultaten van de pilots die in het kader van dit <strong>project</strong> zijn<br />

uitgevoerd, de pilots zijn uitgezet om het draagvlak, de mogelijkheden en de voorwaarden met<br />

betrekking tot digitaal toetsen in kaart te brengen. In ho<strong>of</strong>dstuk 4 wordt (onder <strong>and</strong>ere naar<br />

aanleiding van de pilots) de ho<strong>of</strong>dvraag van het <strong>project</strong> beantwoord: aan welke r<strong>and</strong>voorwaarden<br />

moet worden voldaan - onderwijskundig, organisatorisch, technisch en financiëel- om digitaal te<br />

toetsen. Via deskresearch is onderzocht welke mogelijkheden er op dit moment zijn op het terrein<br />

van digitaal toetsen, de resultaten hiervan zijn samengevat in ho<strong>of</strong>dstuk 5. Per toetstool zijn<br />

voorwaarden geformuleerd. Het afgelopen jaar vonden bij iedere opleiding van de dOO<br />

brainstormsessies plaats waarin de wensen op het terrein van digitaal toetsen zijn<br />

geïnventariseerd. Hierbij waren zowel studenten, als docenten als coördinatoren/managers<br />

betrokken. Deze wensen (‘draagvlak voor digitaal toetsen’) zijn samengevat in ho<strong>of</strong>dstuk 6.<br />

Ho<strong>of</strong>dstuk 7 bevat het voorstel voor een vervolg<strong>project</strong> op het terrein van digitaal toetsen. Het<br />

voorstel is gebaseerd op de resultaten van het huidige <strong>project</strong> en op de ‘Twelve tips for computer-<br />

based assessment in medical education’ die zijn geformuleerd door Hols-Elders e.a. (in publicatie<br />

bij Medical Teacher).<br />

7


2. Digitaal toetsen in het UMCU: st<strong>and</strong> van zaken<br />

Het UMC Utrecht is verantwoordelijk voor de opleidingen geneeskunde (2 opleidingen: CRU’99 en<br />

2006 en SUMMA), de opleiding Gezondheidswetenschappen en, samen met <strong>and</strong>ere faculteiten,<br />

Biomedische wetenschappen en Biomedical science<br />

Geinventariseerd is hoeveel thans wordt gedaan aan digitale toetsing met een summatief doel.<br />

De Geneeskundeopleiding CRU (250-300 studenten per jaargroep) kent 70 toetsen die jaarlijks<br />

worden afgenomen (excl herkansingen). Daarvan vinden vier plaats in electronisch vorm.<br />

Overigens zijn dit toetsen die meermalen per jaar, bij kleine groepen dan de jaargroep, worden<br />

afgenomen.<br />

De Geneeskundeopleiding SUMMA (ca 40 studenten per jaargroep) kent geen electronische<br />

toetsing<br />

De opleiding BMW (ca 180 studenten per jaargroep) heeft circa 45 cursussen die met toetsing<br />

worden afgesloten, waarvan één in electronische vorm<br />

De Opleiding Gezondheidswetenschappen kent ca 15 toetsen waarvan er één electronische wordt<br />

afgenomen.<br />

In alle drie deze opleidingen is in het afgelopen jaar geëxperimenteerd met computergestuurde<br />

toetsing bij <strong>and</strong>ere studieonderdelen, zij het dat een daadwerkelijke afnamen nog niet heeft<br />

plaatsgevonden.<br />

8


3. Pilots met digitaal toetsen<br />

Olle neemt ho<strong>of</strong>dstuk drie voor zijn rekening<br />

In 2007-2008 zijn verschillende korte CBA <strong>project</strong>en uitgevoerd bij diverse toetsen in het<br />

geneeskunde curriculum. TestVision, het programma waarmee al enkele jaren ervaring bestaat in<br />

het UMCU is als model gebruikt.<br />

I. Invoering van TestVision bij toetsing met hoge frequentie en kleine groepen<br />

Het derdejaars studieonderdeel Acute Chirurgie en Perioperatieve Zorg (ACPOZ) wordt 10 maal per<br />

jaar voor groepen van 24 studenten verzorgd. Er is 4 maal per jaar een schriftelijke toets waarover<br />

de mening verdeeld zijn. Een nadeel is dat de toets voor velen niet direct na het onderwijs volgt en<br />

ook is een veelgehoorde klacht dat de aansluiting bij het onderwijsgebrekkig is. De<br />

betrouwbaarheid is i.h.a. niet hoog.<br />

Mede op verzoek van de coördinator zijn voorbereiding getr<strong>of</strong>fen op met ingang van 2008-2009 de<br />

toets met TestVision af te nemen. Deze voorbereiding is voor een belangrijk deel uitgevoerd door<br />

twee zesdejaar studenten geneeskunde die dit onderwijs als onderwijsadvies<strong>project</strong> tijdens een<br />

onderwijsstage hebben uitgevoerd: Elize Berg en Marique Sorel. Als bijlagen (X, XX en XXX) zijn<br />

hun verslagen van dit <strong>project</strong> toegevoegd. De eerste bijlage betreft een algemeen verslag<br />

(verdiepingsonderwerp) over de toepassing van computer based assessment van Elize Berg, de<br />

beide <strong>and</strong>ere verslag betreffen het eigenlijke advies<strong>project</strong>.<br />

Het resultaat van deze pilot is (a) een uitstekende beschrijving van een algemeen stappenplan voor<br />

de invoering van CBA, (b) een beknopte h<strong>and</strong>leiding voor de docent bij de uitvoering van een toets<br />

met TestVision en (c) een nagenoeg startklare voorbereiding voor de invoering in het ACPOZ blok.<br />

De belangrijkste les voor de toekomst is dat een goede centrale bewaking va toetsvraagkwaliteit<br />

leidt tot de behoefte aan vervanging van veel vragen. Als voor een dergelijke toets ca 500 vragen<br />

beschikbaar komen in een vragenbank, dan kan CBA in een dergelijk blok de huidige schriftelijke<br />

toetsing bij alle afnames per jaar goed vervangen. Het inzetten van co-assistenten voor het<br />

ontwerpen van vragen is daarbij een goede optie, mits een staflid de vragen mee beoordeelt.<br />

Er zijn geen technische belemmeringen.<br />

II. Toepassing van TestVision bij toetsing die driemaal per jaar met middelgrote<br />

groepen plaatsvindt<br />

Dit pilot<strong>project</strong> is voorbereid onderwijsstagiaire, Annieke Bosker, bij het derdejaars blok Gezonde<br />

en Zieke Cellen III. Daarbij is gebruik gemaakt van TestVision. Een voorbeeldtoets is ontwikkeld en<br />

op het internet geplaatst (www.testvision/umcutrecht.nl). De uitvoering van deze electronische<br />

toets is evenwel niet doorgegaan, omdat in de r<strong>and</strong>voorwaarden niet tijdig kon worden voorzien.<br />

III Toepassing van TestVision in bij toetsing met short-answer vragen voor grote<br />

groepen (Martien Quaak)<br />

UVT Papierloos<br />

In 2007-2008 is er onderzocht in hoeverre het mogelijk is om de Utrechtse VoortgangsToets UVT af<br />

te nemen met behulp van het toets programma Testvision.<br />

Probleemstelling<br />

Voor de uitvoering van de UVT is erg veel werk nodig bij het nakijken van de vragen. De examens<br />

worden geprint. De antwoorden worden op papier geschreven en de papieren moeten geknipt en<br />

gedistribueerd worden per vraag naar de docent, de beoordelingen moeten vervolgens met de<br />

h<strong>and</strong> worden ingevoerd.<br />

Het zou een groot logistiek voordeel opleveren als de toets electronisch kan worden afgenomen<br />

waarbij de student zelf de antwoorden intypt. Vervolgens kan electronisch een sortering gemaakt<br />

worden, waarna de docent op het scherm de antwoorden kan bekijken en kan scoren.<br />

9


Onderzoek<br />

Onderzocht is <strong>of</strong> met de besta<strong>and</strong>e functionaliteit van Testvision de UVT kan worden afgenomen.<br />

Sam Verdoes heeft verschillende tests gedaan om vragen in Testvision te zetten. Omdat in de UVT<br />

gewerkt wordt met een casus en twee soorten vragen biomedisch en klinisch en per vakgebied<br />

meerdere vragen kunnen worden gesteld en dus ook meerdere antwoorden kunnen worden<br />

gegeven in vrije tekst is het lastig te implementeren. Ook moet voor het nakijken de docent<br />

kunnen zien wat de antwoordvoorbeelden zijn. In meerdere sessies is gewerkt aan een uitwerking<br />

van een geschikte invulling van Testvision.<br />

De heer Molkenboer van Testvision was hierbij aanwezig om advies te geven. Uiteindelijk lijkt het<br />

mogelijk te zijn om Testvision te gebruiken voor het afnemen en nakijken van de UVT, zonder dat<br />

er specifieke aanpassingen moeten worden gedaan aan het programma zelf.<br />

Proef<br />

Het plan is om in een proef met Testvision in het studiejaar 2008 – 2009 een klein aantal vragen<br />

aan een aantal studenten electronisch voor te leggen en te laten beantwoorden en daarna enkele<br />

docenten deze vragen electronisch na te laten kijken. Als dit lukt dan kan daarna bij een UVT<br />

afname een deel van de studenten een electronische versie worden afgenomen.<br />

Uitvoeringsvoorwaarde<br />

Voor het uitvoeren van een volledig electronische afname van de UVT zijn veel computers nodig.<br />

Binnen het UMC zouden verschillende computerleerzalen en het studiel<strong>and</strong>schap kunnen worden<br />

gereserveerd in de avonduren. Maar dan nog zijn er niet genoeg computers om iedereen (ongeveer<br />

450) in een keer te examineren. Het zou goed zijn als er binnen de UU een grote zaal is met veel<br />

computers die gereserveerd kan worden voor electronische afname van toetsen.<br />

Database aanpassing<br />

Los van dit experiment met de afname en het nakijken van de UVT is het ook nodig om voor een<br />

beter beheer van de UVT een <strong>and</strong>ere database opzet te maken. Omdat er veel bijkomende<br />

gegevens bij iedere vraag staan is het niet mogelijk om dit in de Testvision database in te voeren.<br />

De huidige opzet is niet geschikt om de vragen en het examineren efficiënt en goed te kunnen<br />

beheren. Er is begonnen met het analyseren en ontwerpen van een duidelijker databasestructuur.<br />

Deze zal dan vervolgens geïmplementeerd moeten worden, waarbij ook a<strong>and</strong>acht besteed moet<br />

worden aan de koppeling van de database met de Testvision database voor afname en het nakijken<br />

van de vragen.<br />

IV. Toepassing van stemkastjes bij toetsing met hoge frequentie en kleine groepen<br />

Dit <strong>project</strong> betreft een onderzoek naar de uitvoerbaarheid van het gebruik van stemkastjes voor<br />

toetsingsdoeleinden. Hiertoe werd bij de afdeling Kindergeneeskunde, die beschikt over een<br />

collegzaal en stemkastjes die ingezet worden bij een wekelijkse bijeenkomsten met artsassistenten,<br />

onderzocht aan welke voorwaarden dit systeem zou moeten voldoen bij inzet in<br />

blokonderwijs met frequente toetsing in kleine groepen van ca 24 studenten. Het <strong>project</strong> is<br />

uitgevoerd door onderwijsstagiaire Froukje L<strong>and</strong>sman met de volgende vraagstelling: “Hoe zouden<br />

we de stemkastjes, die gebruikt worden op vrijdagochtend tijdens de responsiecolleges, kunnen<br />

gebruiken om te toetsen voor een resultaat dat mee telt in de beoordeling van het blok<br />

st<strong>of</strong>wisseling III en het co-schap kindergeneeskunde? Wat zijn de organisatorische voorwaarden?”<br />

Het verslag van dit <strong>project</strong> is bijgevoegd als bijlage 5.<br />

De conclusie van het <strong>project</strong>, waarvoor 46 studenten en 27 arts-assistenten zijn geënquêteerd, is<br />

dat een toetsafname met stemkastjes een sturende functie kan hebben, c.q. maakt dan mensen<br />

zich beter voorbereiden op een onderwijsbijeenkomst, maar ook dat er sterke beperkingen zijn aan<br />

deze toepassing van ‘papierloos toetsen’ voor summatieve doeleinden. Eén daarvan is het<br />

gedwongen tempo van de toetsing; een <strong>and</strong>ere is de techniek die altijd vlekkeloos is. Concluderend<br />

zijn een goede ‘toetssfeer’, een valide en betrouwbare toets en goede technische ondersteuning<br />

belangrijke organisatorische voorwaarden om een betrouwbare toetsuitslag te krijgen van toetsing<br />

10


met gebruik van stemkastjes; toetsvragen met stemkastjes zorgen er voor dat een onderwijsdag<br />

voor artsassistenten beter wordt voorbereid en AIOS vinden het maken van de toetsvragen nuttig.<br />

Echter, de toetsvragen bevorderen de interactie met de sprekers niet. Dat laatst is uiteraard gene<br />

doel van summatieve toetsing, maar het gebruik van stemkastjes voor formatieve doelen zou deze<br />

functie in theorie wel kunnen hebben.<br />

11


4. R<strong>and</strong>voorwaarden digitaal toetsen in UMCU<br />

4.1 Inleiding<br />

De ho<strong>of</strong>dvraag van het <strong>project</strong> luidt: ‘aan welke voorwaarden moet worden voldaan –financieel,<br />

organisatorisch en in <strong>and</strong>er opzicht- om schriftelijke toetsing bij de opleidingen van de Directie<br />

Onderwijs en Opleidingen volledig te verlaten, welke mogelijkheden zijn er om aan die<br />

voorwaarden te voldoen en wat is de kosten/baten verhouding’. Dit ho<strong>of</strong>dstuk geeft hierop een<br />

antwoord.<br />

4.2 Onderwijskundige r<strong>and</strong>voorwaarden (o.a. itembanken)<br />

- Toetsen bepalen het gedrag van studenten in grote mate. Daarom is het van belang dat er<br />

vanuit het onderwijs voortdurend naar wordt gestreefd, de toetsen zo representatief mogelijk<br />

te maken voor het onderwijs en de voorgeschreven studiest<strong>of</strong>. Een elektronische itembank<br />

maakt inzichtelijk welke onderwijsonderwerpen door de examenvragen worden gedekt. Aan de<br />

h<strong>and</strong> van de scores kan gezien worden welke kennis bij de student aanwezig is. Slechte vragen<br />

zijn te herkennen aan een afwijkend antwoordpatroon. Met deze instrumenten kan de kwaliteit<br />

van de examenvragen en van het gegeven onderwijs worden gemonitord en worden verbeterd.<br />

- De toetsaanpak hangt samen met de manier waarop het onderwijs wordt uitgewerkt. Dat<br />

betekent dat een onderwijsvisie en daarmee samenhangend beleid de kaders vormen voor<br />

keuzes met betrekking tot toetsing. De Directie van de dOO is verantwoordelijk voor<br />

beleidsmatige ondersteuning en praktische uitvoerbaarheid, zij bepalen <strong>of</strong> en in welke mate er<br />

structureel van digitale toetsondersteuning gebruik gemaakt kan worden. Hierbij spelen ook<br />

praktische en financiële overwegingen een rol zoals bijvoorbeeld: verhoogde efficiëntie bij<br />

elektronisch toetsen in kleine groepen studenten, mogelijkheid tot een hoge frequentie van<br />

toetsafname en ondersteuning van docenten bij gebruik van TestVision.<br />

- Voor de afstemming, kwaliteitscontrole en (op termijn) efficiëntie is het aan te bevelen een<br />

digitale itembank met toetsvragen op te zetten en in te richten. De opbouw van zo’n itembank<br />

dient gefaseerd te worden aangepakt. Om te beginnen kan gestreefd worden naar het<br />

opbouwen van itembanken per blokcoördinator. Iedere blokcoördinator zou een eigen versie<br />

van zijn/haar bank van vragen op de eigen pc moeten hebben. Door deze vragen zelf te<br />

beheren weet de coördinator welke vragen eerder zijn gesteld, hoe de ervaringen daarmee<br />

waren en welke probleemgebieden door de vragen worden gedekt. Door het zelf te beheren is<br />

de blokcoördinator/docent verantwoordelijk voor het up to date houden van de vragen.<br />

Het is technisch mogelijk om de verschillende best<strong>and</strong>en te combineren in een systeem, zodat<br />

blokcoördinatoren/docenten ook van elkaar vragen kunnen bekijken en overnemen. Hier<br />

moeten goede afspraken over worden gemaakt in verb<strong>and</strong> met beveiliging en auteursrechten.<br />

- Op basis van een elektronische itembank kan een papieren examen worden gemaakt <strong>of</strong> een<br />

elektronische versie voor elektronische afname, dit mede afhankelijk van de praktische<br />

mogelijkheden en onderwijskundige wenselijkheid.<br />

- Het programma moet gebruiksvriendelijk te bedienen zijn. Zowel voor de docent die vragen in<br />

de vragenbank zet, vragen kan aanpassen, examens samenstelt en resultaten verwerkt, als<br />

voor de student die de toets op de computer maakt.<br />

4.3 Organisatorische r<strong>and</strong>voorwaarden<br />

- Het is van belang dat er ondersteuning is bij het onderhouden van een vragenbank door<br />

docenten, hulp bij het installeren en opzetten van het programma en het inrichten van de<br />

vragenbank en hulp bij het maken van examens, het printen van examens en het klaarzetten<br />

van elektronische examens.<br />

- Menskracht om het gebruik van de server te ondersteunen, te updaten en bij docenten<br />

beschikbaar te maken, evenals het gebruik bij het afnemen van toetsen.<br />

- Beschikbaar zijn van surveillanten die bij elektronisch afgenomen examens de aanwezigheid<br />

van studenten controleren, evenals het juiste gebruik van het examenprogramma.<br />

12


4.4 Technische r<strong>and</strong>voorwaarden<br />

- Het toetsprogramma moet geïnstalleerd zijn op een server die wordt onderhouden en waar<br />

regelmatig back-ups van worden gemaakt.<br />

- Verder moeten er toetszalen zijn met grote aantallen pc’s <strong>of</strong> laptops. Om het aantal<br />

werkstations te bepalen kan worden uitgegaan van aantal studenten dat wordt getoetst : 2. Dit<br />

veronderstelt toetsen in shifts (2 groepen na elkaar). De toetszaal moet overzichtelijk zijn<br />

ingericht om tijdens de toets gemakkelijk te kunnen surveilleren. Door gebruik te maken van<br />

een wireless netwerk kunnen laptops worden aangesloten op een examennetwerk. Deze<br />

laptops kunnen beveiligd worden afgestemd op het netwerk. Het netwerk moet degelijk<br />

afgeschermd worden van inbraakpogingen van buitenaf.<br />

- PC’s van docenten moeten geschikt zijn om het toetsprogramma op te kunnen installeren en te<br />

laten werken.<br />

4.5 Financiele r<strong>and</strong>voorwaarden<br />

- Er zijn verschillende manieren waarop de kosten voor digitaal toetsen kunnen worden<br />

doorberekend. Draaijer (2004) noemt er drie: 1. centrale financiering door ‘afroming’, 2.<br />

decentrale financiering waarbij opleidingen vergoedingen betalen voor het gebruik van de<br />

centraal ondersteunde systemen en organisatie en 3. gedifferentieerde financiering waarin de<br />

toetstools worden bekostigd op basis van gebruik per cursus <strong>of</strong> toets.<br />

- De kosten van de aanschaf en het gebruik van het toetsprogramma komen in de huidige opzet<br />

voor rekening van het Expertisecentrum van de dOO. Gebruikers van buiten de dOO betalen<br />

mee aan de licentie en het beheer. Kosten worden verdeeld over de gebruikers van het<br />

programma bij de verschillende divisies De divisies die gebruik maken van elektronisch<br />

toetsen hebben een organisatorisch voordeel bij het elektronisch afnemen van de toets in<br />

vergelijking met een papieren toets. De kosten van de papieren versie kunnen afgezet worden<br />

tegen de kosten van de elektronische toets.<br />

- De kosten voor het gebruik van de centrale server worden gedragen worden door de dOO en<br />

verrekend met UMC gebruikers..<br />

- De kosten voor support worden door de dOO betaald en in rekening gebracht. Hiervoor is een<br />

SLA opgesteld voor de gebruikers van niet academische opleidingen Hierdoor zijn de divisies<br />

verzekerd van support voor het programma.<br />

- Een kosten-baten analyse is lastig te maken. Er spelen teveel onbekende factoren een rol:<br />

welke opleidingen willen zoveel mogelijk digitaal toetsen, hoe hangt dit samen met de kosten<br />

die aan een opleiding worden doorberekend, welk financieringsmodel wordt gehanteerd? Hoe<br />

waardeer je de didactische voordelen van digitale toetsing en de kwaliteitsverbetering?<br />

Duidelijk is dat invoering van digitaal toetsen vraagt om grote investeringen. Een deel van die<br />

investeringen kunnen worden terugverdiend door bijvoorbeeld computerlokalen te verhuren<br />

aan <strong>and</strong>ere instellingen en externe bedrijven.<br />

4.6 Conclusie (inclusief haalbaarheid binnen UMCU)<br />

- Tot nu toe zijn de ervaringen met elektronische toetsen positief bij het UMCU, al een aantal<br />

jaren wordt op relatief bescheiden schaal, maar wel continu, gebruik gemaakt van elektronisch<br />

toetsen. De uitvoering verloopt goed, maar vergt veel support.<br />

- Op dOO Directie niveau zal er een keuze gemaakt moeten worden voor elektronisch toetsen<br />

(op grote schaal) en de organisatorische en financiële uitvoering daarvan.<br />

- Het is van belang dat de verdeling van de kosten tussen dOO en divisies goed wordt<br />

besproken, zodat in de toekomst een garantie van het gebruik van het programma (TestVision)<br />

gecontinueerd wordt. Thans wordt de medewerker die ontwikkeling en toepassing van<br />

TestVision in het takenpakket heeft belast met oneigenlijk docentenwerk.<br />

- Door het beheer van de vragen en de examens bij de docent te leggen wordt de<br />

verantwoordelijkheid van de docent voor het examen duidelijker. De gewoonte om bij<br />

electronische toetsing deze taken uit h<strong>and</strong>en te geven zal moeten ver<strong>and</strong>eren om deze<br />

werkwijze geaccepteerd te krijgen.<br />

13


- Voor het afnemen van toetsen bij grote groepen studenten is een grote zaal nodig, het zou<br />

wenselijk zijn als de UU centraal een grote zaal inricht met computers die voor elektronisch<br />

toetsen kan worden ingehuurd inclusief de daarbij behorende technische support.<br />

4.7 Schets van toepassingsscenario elektronische toetsafname<br />

UMCU - dOO<br />

Betrokkenen<br />

- Coördinator beheert eigen vragenbank, ontvangt vragen van docenten.<br />

- Secretariaat van coördinator is intermediair tussen coördinator en toets ondersteuner<br />

en regelt communicatie met studenten.<br />

- Centrale toetsondersteuner beheert examenprogramma, plaatst examens en<br />

genereert toetsresultaten.<br />

- Onderwijskundige ondersteuning en advisering<br />

Fromatieftoetsen<br />

- Coördinator stelt examen samen en levert die aan om centraal te worden afgenomen.<br />

- Secretariaat geeft gegevens studenten door en communiceert met studenten.<br />

- Centrale ondersteuner plaatst examen en zet het klaar voor groep.<br />

- Examen kan worden afgelegd in studiel<strong>and</strong>schap.<br />

- Technische ondersteuning is op afroep beschikbaar , wie?<br />

- Na het examen kan de student het examen en de feedback op de antwoorden<br />

bekijken<br />

Summatief toetsen<br />

- Coördinator stelt toets samen en levert die aan om centraal te worden afgenomen.<br />

- Secretariaat reserveert examenruimte, surveillant en geeft gegevens studenten door.<br />

- Centrale ondersteuner plaatst examen en zet het klaar voor groep.<br />

- Examen wordt afgenomen in zaal met pc’s, en/<strong>of</strong> meerdere zalen met pc’s en/<strong>of</strong><br />

studiel<strong>and</strong>schap en/<strong>of</strong> zaal met laptops afkomstig uit een mobiele kar met laptops<br />

en/<strong>of</strong> zaal van de UU met pc’s <strong>of</strong> laptops.<br />

- Bij het examen zijn surveillanten aanwezig en is technische ondersteuning op afroep<br />

beschikbaar.<br />

- Open vragen moeten worden nagekeken, hier zit vaak een hele logistiek aan vast, als<br />

er een beoordeling door het toetsprogramma is gedaan moet deze gecontroleerd<br />

worden.<br />

- Na het examen worden resultaten verwerkt door centrale ondersteuner en naar het<br />

secretariaat/coördinator verstuurd.<br />

- Inzien van gemaakte examen door studenten wordt door secretariaat ondersteund.<br />

- Coördinator verbetert op basis van vraagscores de vragen in de vragenbank en geeft<br />

wijzigingen door aan docenten.<br />

Voorwaarden<br />

- Divisies betalen dOO voor ondersteuning door centrale ondersteuner en gebruik van<br />

computers, computerzalen en surveillanten.<br />

- Divisies zorgen voor coördinator, docenten en functionerend secretariaat.<br />

- dOO zorgt voor centrale toets ondersteuner en pc en/<strong>of</strong> laptops en geschikte zalen.<br />

- dOO zorgt voor inroosteringsmogelijkheden van zalen en surveillanten<br />

- dOO biedt onderwijskundige en inhoudelijke ondersteuning bij het maken van vragen<br />

en het opstellen en beoordelen van toetsen<br />

- Voor de uitvoering van de administratie is het belangrijk dat er een koppeling is<br />

tussen de best<strong>and</strong>en met medewerkergegevens en studentgegevens en Testvision.<br />

14


Deze koppeling moet specifiek worden geprogrammeerd. Met behulp van een<br />

dergelijke koppeling kan de inschrijving van studenten en medewerkers die een toets<br />

willen afleggen worden vereenvoudigd. Ook de resultaten zullen rechtstreeks vanuit<br />

Testvision in Osiris terug kunnen worden gezet <strong>of</strong> in een portfolio van een<br />

medewerker. Tevens kan een koppeling met het kwaliteitssysteem worden gemaakt<br />

zodat er meteen een evaluatie kan worden ingevuld.<br />

Een variant in dit scenario is afname op papier van vragen die afkomstig zijn uit een<br />

elektronische vragenbank. Hierbij zal speciale a<strong>and</strong>acht moeten worden besteed aan<br />

opname van de antwoorden in het electronische best<strong>and</strong>..<br />

Voor elektronisch toetsen bij de UU geldt hetzelfde scenario, waarbij voor divisies<br />

faculteiten kunnen worden gelezen en centraal de UU een beheer en<br />

ondersteuningsservice kan leveren, maar het kan ook per faculteit worden opgezet.<br />

15


5. Mogelijkheden van digitaal toetsen<br />

5.1 Intro<br />

De manier waarop wordt getoetst hangt samen met de manier waarop het onderwijs is<br />

vormgegeven (vergelijk vakgericht onderwijs, probleem gestuurd onderwijs, competentiegericht<br />

onderwijs) en het doel van de toetsing (formatief <strong>of</strong> summatief).<br />

De dOO-UMCU omvat drie academische opleidingen geneeskunde (GNK), biomedische<br />

wetenschappen (BMW), algemene gezondheidswetenschappen (AGW) en de opleidingen van het<br />

Opleidingscentrum (OC). In deze opleidingen is a<strong>and</strong>acht voor de opbouw van een kennisbasis<br />

(met declaratieve en procedurele kennis), oplossing van praktijkproblemen en ontwikkeling van<br />

competenties. Deze worden op verschillende manieren getoetst: ict kan hierbij een belangrijke rol<br />

spelen.<br />

In de inleiding is aangegeven wat de voordelen zijn van digitaal toetsen. In dit ho<strong>of</strong>dstuk staan de<br />

mogelijkheden van digitaal toetsen centraal. De mogelijkheden worden gerelateerd aan de in<br />

geneeskunde opleidingen veel gehanteerde piramide van Miller.<br />

5.2 Mogelijkheden<br />

Bij de beschrijving van mogelijkheden van digitaal toetsen wordt gebruik gemaakt van de piramide<br />

van Miller (1990, p. 63-67, geciteerd in van Tartwijk e.a. 2003, p. 15-17). Miller ontwikkelde een<br />

piramide waarmee de niveaus van bekwaamheid van geneeskunde-studenten kunnen worden<br />

beschreven. Een onderliggend niveau vormt steeds het fundament voor de bovenliggende laag.<br />

Figuur 1: Millers driehoek<br />

Toelichting:<br />

Knows: het onderste niveau wordt gevormd door de kennis waarover een student moet beschikken<br />

om zijn toekomstige taken als arts uit te kunnen voeren.<br />

Knows how: de student weet hoe hij die kennis moet gebruiken bij het uitvoeren van zijn<br />

probleemoplossende taken.<br />

Shows how: de student laat zien dat hij kan h<strong>and</strong>elen in een gesimuleerde omgeving, onder meer<br />

op basis van zijn kennis. Het gaat hier dus om kennen en h<strong>and</strong>elen (cognitie en gedrag).<br />

Does: de student h<strong>and</strong>elt zelfst<strong>and</strong>ig in de complexe praktijk van alledag. Daarbij wordt een<br />

beroep gedaan op een geïntegreerd geheel van kennis, vaardigheden, houdingen en persoonlijke<br />

eigenschappen.<br />

In dit ho<strong>of</strong>dstuk worden de volgende toetsmogelijkheden beschreven:<br />

• Toetsprogramma’s met voorgestructureerde antwoorden<br />

• Toetsen met behulp van stemkastjes, mobiele telefoons en PDA’s<br />

• Adaptief toetsen<br />

• Essaytoetsing op basis van voorgestructureerde feedback<br />

• Essaytoetsing<br />

• Peerfeedback-tools<br />

• Portfolio<br />

Deze toetsmogelijkheden worden in ondersta<strong>and</strong>e tabel gerelateerd aan de bekwaamheidsniveaus<br />

van Miller en vervolgens toegelicht.<br />

16


Bekwaam-<br />

heids-<br />

niveaus<br />

Inhoud Vorm <strong>Digital</strong>e mogelijkheden<br />

Knows Kennis Tentamen:<br />

Knows how Kennis op juiste manier<br />

gebruiken: waar moet je<br />

op letten bij stellen van<br />

een diagnose<br />

Shows how Vaardigheid = h<strong>and</strong>elen<br />

in gesimuleerde<br />

omgeving, diagnose<br />

stellen na onderzoek bij<br />

gesimuleerde patient<br />

Does Adequaat functioneren in<br />

praktijk<br />

reproductie-<br />

vragen<br />

Tentamen op<br />

basis van cases<br />

Simulatie-<br />

patienten, <br />

assessment-<br />

centers<br />

• Toetsprogramma’s met<br />

voorgestructureerde antwoorden<br />

• Toetsen met behulp van<br />

stemkastjes, mobiele telefoons en<br />

PDA’s<br />

• Adaptief toetsen<br />

• Toetsprogramma’s met<br />

voorgestructureerde antwoorden<br />

• Toetsen met behulp van<br />

stemkastjes, mobiele telefoons en<br />

PDA’s<br />

• Adaptief toetsen<br />

• Essaytoetsing op basis van<br />

voorgestructureerde feedback<br />

• Essaytoetsing<br />

• Peerfeedback-tools voor<br />

schrijfopdrachten<br />

• Peerfeedbacktool - samenwerken<br />

• Peerfeedback-tool - DIVIDU<br />

• Peerfeedbacktool - samenwerken<br />

• Peerfeedbacktool - DIVIDU<br />

• Portfolio<br />

<strong>Digital</strong>e toets met voorgestructureerde antwoorden<br />

Digitaal toetsen met voorgestructureerde antwoorden (gesloten vragen) sluit het best aan bij de<br />

traditionele manier van (schriftelijke) meerkeuze vragen. De stap naar digitaal toetsen lijkt niet zo<br />

groot, maar de inzet van digitaal toetsen vereist een flinke voorinvestering (aanschaf s<strong>of</strong>tware,<br />

training gebruikers, computerzalen) en samenwerking tussen docenten. Daarom komt digitale<br />

toetsing langzaam op gang.<br />

De meeste Elektronische Leeromgevingen (ELO’s als Blackboard, WebCT, zie<br />

http://www.blackboard.com/us/index.bbb’) beschikken over een toetsfunctionaliteit, maar de<br />

beveiliging en vraag– en analysemogelijkheden zijn in deze programma’s beperkt. <strong>Digital</strong>e<br />

toetsprogramma’s als Testvision (www.testvision.nl) en Question Mark Perception<br />

(http://www.stoas.nl/stoas_com/d8b2cbf34bd85b999007a875c4298359.php) worden steeds vaker<br />

in het onderwijs gebruikt. De meeste ELO’s en toetsprogramma’s beschikken over de mogelijkheid<br />

om beeld en geluid toe te voegen aan toetsvragen, bij toetsprogramma’s gaat dit<br />

gebruiksvriendelijker dan bij ELO’s. Beide type programma’s beschikken eveneens over de<br />

mogelijkheid op basis van een gegeven antwoord inhoudelijke feedback <strong>of</strong> studeeraanwijzingen te<br />

formuleren. Studenten waarderen deze mogelijkheid en vinden het prettig zichzelf (thuis <strong>of</strong> in de<br />

instelling) te toetsen: deze vorm van toetsing is motivatie-verhogend en het leereffect is groter<br />

dan bij feedback na verloop van tijd. Docenten krijgen op deze manier inzicht in de voortgang<br />

van de studenten en zijn minder lang bezig met het nakijken. De beslissing om digitaal te gaan<br />

17


toetsen en een itembank in te richten, leidt vaak tot verbetering van de kwaliteit van toetsvragen:<br />

niet alleen in de fase van het ‘invoeren’ van de vragen, maar ook bij het analyseren van de<br />

antwoorden. De analyse geeft informatie op twee niveaus: over de kwaliteit van de meting<br />

als geheel, en van de vragen afzonderlijk: is de meting betrouwbaar, is de toets<br />

voldoende consistent, differentieert het tentamen en de vragen in voldoende mate, is er<br />

voldoende variatie in moeilijkheidsgraad aangebracht? Het doel van de analyse is om<br />

aanwijzingen te vinden voor verbetering van de vragen en om evidentie te leveren voor<br />

evenwichtige samenstelling van nieuwe toetsen (zie verder<br />

http://www.ivlos.uu.nl/adviesentraining/aanboduniversite/toetsenenbeoorde/stappenplan<br />

/evaluatie/18404main.html).<br />

dOO-UMCU maakt gebruik van de toetsoptie in WebCT en van Testvision. WebCT wordt formatief<br />

en summatief ingezet, Testvision voornamelijk summatief. Werken met Testvision veronderstelt de<br />

inrichting van een ‘toetsmatrijs’, het invullen van zo’n matrijs (match onderwijsdoelen –<br />

toetsonderdelen) maakt de representativiteit van een toets aanzienlijk hoger.<br />

Met Testvision kunnen maatregelen worden genomen voor sequentiemanipulatie (wel/niet<br />

terugkijken). Dit type toetsprogramma’s groeit mee met gebruikerswensen (gegevens zijn goed<br />

afgeschermd, toename in vraagtypen, toename van mogelijkheden van toets- en vraaganalyse,<br />

webbased, gebruiksvriendelijkheid), en vervult vooral een functie bij toetsing van kennis en inzicht<br />

(‘knows’ en ‘knows how’).<br />

Toetsen met behulp van stemkastjes, mobieltjes en PDA’s<br />

Stemkastjes (http://www.interwritelearning.nl/interwrite_virtual_prs.php) kunnen worden ingezet<br />

bij colleges: de docent stelt een vraag en de student beantwoordt de vraag via een stemkastje<br />

(keuze uit alternatieven). De scores worden via een PowerPoint presentatie ge<strong>project</strong>eerd.<br />

Voordeel is dat grote groepen studenten tegelijk kunnen worden getoetst, dat de volgorde van<br />

vragen vastligt -waardoor kan worden voortborduurd op bepaalde vragen/antwoorden- en dat na<br />

afloop direct feedback kan worden gegeven –bijvoorbeeld bij vragen die het slechtst zijn<br />

beantwoord-.<br />

In 2007 is in de UU een pilot uitgevoerd over stemkastjes (Paul, 2007). In het <strong>project</strong> zijn onder<br />

<strong>and</strong>ere de toepassingsmogelijkheden van stemkastjes bij tentamens onderzocht. Studenten bleken<br />

erg tevreden over de inzet van stemkastjes bij proeftentamens (formatieve functie van toetsing).<br />

‘Echte’ tentamens (summatieve functie van toetsing) met behulp van stemkastjes werden niet op<br />

prijs gesteld. Dit had onder <strong>and</strong>ere te maken met het feit dat studenten (Turningpoint 2006) geen<br />

bevestiging kregen van het feit dat ze gestemd hadden.<br />

Stemkastjes kunnen ook worden ingezet bij het geven van peerfeedback, bijvoorbeeld na een<br />

presentatie van een mede-student.<br />

Mobieltjes en PDA’s kunnen worden ingezet voor dezelfde doeleinden als stemkastjes, hiermee is in<br />

Nederl<strong>and</strong> nog weinig ervaring.<br />

Stemkastjes kunnen een functie vervullen bij het toetsen van kennis en inzicht (‘knows’ en ‘knows<br />

how’).<br />

Adaptief toetsten<br />

Bij computergestuurd adaptief toetsen (CAT) wordt de moeilijkheid van de toets tijdens het toetsen<br />

constant aangepast aan het niveau van de student (zie http://elearning.surf.nl/elearning/onderzoek/2321).<br />

Bij CAT krijgt de student niet in één keer een gehele toets voorgelegd:<br />

afhankelijk van de score op een beperkt aantal vragen beslist het programma om de student al dan<br />

niet vervolgvragen voor te leggen en te bepalen welke moeilijkheidsgraad dan voorgelegd wordt<br />

(lager, gelijk <strong>of</strong> hoger). Op deze manier kan met veel minder vragen een betrouwbaar oordeel<br />

worden gegeven over de beheersing van bepaalde st<strong>of</strong> door een student. Dit is van belang voor de<br />

student die veel sneller klaar is met de toets maar ook voor de toetsconstructie en docenten kan<br />

het besparingen opleveren in tijd en geld.<br />

Voordeel van CAT is dat iedere student een unieke toets krijgt voorgelegd. Dat maakt het mogelijk<br />

om studenten te toetsen op het moment dat het ze zelf schikt.<br />

18


Adaptief toetsen vereist specifieke s<strong>of</strong>tware, zie het programma FastTest via<br />

http://www.assess.com.<br />

Om een adaptieve toets betrouwbaar genoeg te maken dienen er veel items in de toetsbank te<br />

zitten waaruit een toets wordt gegenereerd en moeten deze items gekalibreerd zijn: het moet<br />

bekend zijn welke moeilijkheidsgraad een item heeft. Dat vergt een uitgekiende en<br />

arbeidsintensieve aanpak: de items moeten –als onderdeel van een toets- worden uitgetest op zo’n<br />

1000 studenten (Thissen & Mislevy 2000). Dat is één van de grote struikelblokken voor het<br />

invoeren van dergelijke toetsen in het hoger onderwijs. De investering is erg hoog, waarbij – door<br />

voortdurende ver<strong>and</strong>ering van curricula en specifieke lokale eisen – de toepasbaarheid van een<br />

dergelijk programma klein is, zeker op een langere termijn (zie Draaijer 2004).<br />

Daarnaast worden als nadelen van adaptief toetsen genoemd: studenten vinden het vervelend dat<br />

ze niet terug kunnen kijken naar eerder beantwoorde vragen; het is niet mogelijk om studenten<br />

een toets te geven die wat betreft inhoud vergelijkbaar is (Van der Linden, 2005).<br />

Adaptief toetsen vervult voornamelijk een functie bij toetsing van kennis en inzicht (‘knows’ en<br />

‘knows how’).<br />

Essaytoetsing op basis van voorgestructureerde feedback<br />

S<strong>of</strong>tware, waarin essay-opdrachten worden nagekeken op basis van voorgestructureerde feedback<br />

worden in deze rapportage getypeerd als ‘semi-geautomatiseerd’. Draaijer (2004) beschrijft twee<br />

programma’s voor het semi-geautomatiseerd nakijken, Markin en MarkThis. In Nederl<strong>and</strong> is weinig<br />

ervaring met deze programma’s. De Vrije Universiteit voert pilots uit met een derde programma<br />

‘Turnitin’ in het kader van het SURF<strong>project</strong> ‘Pro<strong>of</strong>’.<br />

• Markin<br />

Markin (http://www.cict.co.uk/s<strong>of</strong>tware/markin) ondersteunt bij het nakijken van digitaal<br />

ingeleverde tekstdocumenten. Het biedt de mogelijkheid om tekstdelen te markeren met<br />

feedback, commentaar <strong>of</strong> hyperlinks. De docent selecteert uit het ingeleverde werk één <strong>of</strong><br />

meerdere woorden (<strong>of</strong> zinnen) en kiest daarbij de gest<strong>and</strong>aardiseerde <strong>of</strong> zelf geformuleerde<br />

feedback die op het geselecteerde stuk van toepassing is. Het programma biedt een aantal<br />

knoppen waarmee negatieve feedback kan worden gegeven voor spelling, syntaxis,<br />

grammatica, morfologie, vocabulaire en inhoud. Verder heeft Markin een aantal knoppen<br />

waarmee positieve feedback kan worden geven. Aan elk aspect van deze feedback kan een<br />

waarde worden toegekend, zodat belangrijke aspecten zwaarder worden meegewogen dan<br />

<strong>and</strong>ere aspecten.<br />

Als het werk is voorzien van feedback, kan de toets (als internetpagina) direct via e-mail naar<br />

de student worden teruggestuurd, met daarin de toegekende feedback, het cijfer en eventueel<br />

de statistieken over de feedback. Dit laatste is een soort samenvatting, zodat studenten snel<br />

kunnen zien hoeveel positieve en hoeveel negatieve feedback ze hebben gekregen.<br />

Het voordeel van Markin is dat studenten keurig geannoteerde inhoudelijke feedback op hun<br />

werk krijgen, en wel exact op de plaats waarop de feedback slaat. Nadeel is dat na het<br />

invoegen van alle feedback het programma niet de totale waarde berekent, dit blijft een<br />

h<strong>and</strong>matige taak van de docent.<br />

• MarkThis<br />

MarkThis (www.circle-<strong>of</strong>-excellence.com) is vergelijkbaar met Markin. Een nadeel van MarkThis<br />

is dat de gegeven feedback niet in de tekst komt te staan. De student ontvangt slechts de<br />

resultaten.<br />

• Turnitin<br />

Turnitin (http://www.turnitin.com/static/index.html) vervult twee functies: fraudedetectie en<br />

semi-geautomatiseerd nakijken. In het kader van dit <strong>project</strong> is de laatste functie relevant.<br />

Turnitin is –<strong>and</strong>ers dan de eerder genoemde programma’s-, niet exclusief bedoeld voor de<br />

docent, maar ook voor de student (peerreview). Turnitin is wat betreft opbouw vergelijkbaar<br />

met Markin. Daarnaast biedt Turnitin de mogelijkheid om overall-categorieën te formuleren die<br />

gewaardeerd kunnen worden op en schaal van 1 t/m 5. Op deze manier voorziet de<br />

feedbackgever (docent <strong>of</strong> student) het paper van een cijfer (Ka<strong>and</strong>orp, 2007).<br />

19


Het (semi-) geautomatiseerd nakijken en beoordelen van essayvraagstukken vervult een functie bij<br />

het tonen van bekwaamheid op het gebied van ‘knows how’.<br />

Essaytoetsing<br />

Sinds begin 2000 zijn er tools op de markt waarmee open vragen kunnen worden gescoord.<br />

• CODAS (Conceptuele Documenten Analyse Systemen)<br />

Codas (http://www.<strong>and</strong>romatics.nl) kan antwoorden op opdrachten en essayvraagstukken<br />

analyseren en heeft een fraudedetectie- en nakijkmodule.<br />

De nakijkmodule analyseert een klein aantal essays die h<strong>and</strong>matig zijn nagekeken. De docent<br />

kent scores toe (maximaal vier) en merkt een beperkt aantal essays daarvan als voorbeelden<br />

<strong>of</strong> tegenvoorbeelden. Deze scores worden in het programma toegevoegd, waarna CODAS alle<br />

opgaven aan de h<strong>and</strong> van deze gemarkeerde documenten ordent. De docent kan vervolgens in<br />

de ordening grenzen aangeven voor de gewenste beoordelingscategorieën. Steekproefsgewijs<br />

kan de ordening gecontroleerd en verfijnd worden. Vervolgens laat men het programma<br />

opnieuw de documenten ordenen en bepaalt de docent de cesuur. Het ordenen (nakijken)<br />

gebeurt op basis van een statistische analyse van woordfrequenties. CODAS beoordeelt de<br />

inhoud van documenten dus niet op het 'microniveau' van de precieze formulering en volgorde<br />

van zinnen, maar op een meer geabstraheerd, 'hoger', 'conceptueel' niveau.<br />

CODAS heeft een aantal kenmerken die het programma lastig maken in gebruik: minimale<br />

grootte van de essays is 300 woorden, betrouwbaarheid en tijdwinst gaan spelen vanaf 50<br />

essays, het taalgebruik van populatie dient homogeen te zijn, het programma werkt beter als<br />

er grote spreiding is in antwoordkwaliteit (goede en slechte essays). Door deze kenmerken kan<br />

de betrouwbaarheid niet worden gegar<strong>and</strong>eerd en is summatieve toetsing geen optie.<br />

Formatieve toetsing is eveneens geen optie: in het programma kan geen inhoudelijke feedback<br />

worden gegeven (zie Draaijer 2004).<br />

• Intellimetric<br />

Intellimetric (http://www.vantagelearning.com/school/products/intellimetric) is de eerste tool<br />

voor essay-toetsing die gebruik maakt van kunstmatige intelligentie. Daarnaast worden scores<br />

gebaseerd op ‘natural language processing’ en statistische technologie (zie Eliot 2003, p. 71<br />

geciteerd in Dikli, 2006, p.15).<br />

De inzet van zo’n programma vraagt om training: het programma leert op basis van essays die<br />

reeds gescoord zijn door experts. De gescoorde essays, worden door de tool gebruikt als basis<br />

voor de geautomatiseerde scoring. Dikli (2006) stelt dat er 300 ‘oefen’ essays nodig zijn om te<br />

komen tot een adequate scoring.<br />

De scoring gebeurt op basis van inhoudelijke en structuur aspecten. Inhoudelijk wordt er gelet<br />

op kenmerken die te maken hebben met de inhoud / het onderwerp, de reikwijdte van het<br />

onderwerp; cohesie en consistentie; en de opbouw van het betoog. Wat betreft de structuur<br />

wordt er gelet op overeenstemming met de conventies in de taal, zinscomplexiteit en variëteit.<br />

Het grootste bezwaar tegen Intellimetric zijn de kosten. De opstartkosten voor het nakijken<br />

van een essay (300 trials) zijn € 8.000,-. Dit maakt programma alleen geschikt voor steeds<br />

terugkerende opdrachten/essays en grote aantallen studenten.<br />

Het geautomatiseerd nakijken en beoordelen van essayvraagstukken vervult een functie bij het<br />

tonen van bekwaamheid op het gebied van ‘knows how’.<br />

Tools voor Peerfeedback<br />

In het onderwijs wordt op bescheiden schaal gebruik gemaakt van peer feedback: studenten geven<br />

elkaar feedback op teksten en/<strong>of</strong> inzet (samenwerken) en/<strong>of</strong> performance.<br />

In de UU zijn twee tools ontwikkeld voor het geven van feedback, namelijk het Annotatiesysteem<br />

en de Peerfeedbacktool. Dividu is ontwikkeld in het kader van (een <strong>project</strong> van) de <strong>Digital</strong>e<br />

Universiteit.<br />

De tools zijn in eerste instantie ontwikkeld voor peer2peer-contact, maar kunnen ook door de<br />

docent worden gebruikt bij de beoordeling van studenten.<br />

• Het Annotatiesysteem<br />

20


Het Annotatiesysteem (AS) is ontwikkeld door het IVLOS en wordt gebruikt voor het aan elkaar<br />

voorleggen van teksten voor online peer feedback (zie Van den Berg e.a., 2005; Van der Pol,<br />

2007). Het AS is het enige systeem waarin het mogelijk is om de gegeven feedback ‘te<br />

waarderen’ (rating).<br />

Het Annotatiesysteem werkt heel eenvoudig. In Aan de slag met het Annotatiesysteem staat<br />

precies welke stappen je moet volgen om rond te kijken, in te loggen (als docent <strong>of</strong> student),<br />

hoe je cursussen en groepen studenten aanmaakt, documenten upload (PDF) en deze in<br />

onderlinge samenwerking becommentarieert met behulp van annotaties (opmerkingen) en<br />

feedback op elkaars berichten. De tekst staat rechts op het scherm, annotaties en feedback<br />

verschijnen links in beeld. Met een rating kun je aangeven hoe belangrijk je een annotatie<br />

vindt (van 1 tot 5 sterretjes). Door de mogelijkheid op elkaars vragen en feedback te reageren<br />

ontstaat er een inhoudsgerichte discussie die helpt bij het bestuderen en verwerken van een<br />

tekst.<br />

• De Peerfeedback Tool<br />

De Peer feedback Tool is ontwikkeld bij het departement Informatica. Met de tool geven<br />

studenten elkaar feedback op aspecten van samenwerken (zie Van den Berg e.a., 2005).<br />

• Dividu<br />

DiViDU (http://info.dividu.nl) is een webgebaseerde videorepository waarin studenten en<br />

docenten hun eigen, in de beroepspraktijk opgenomen vide<strong>of</strong>ragmenten (van kritische<br />

praktijksituaties) onderbrengen, beschrijven en coderen met metadata. Daaraan gekoppeld zijn<br />

er drie didactische componenten: Analyse (student analyseert praktijksituaties op video, die<br />

ook theoretische concepten, zoals samenwerkend leren, illustreren); Reflectie (student<br />

reflecteert met behulp van video op het eigen h<strong>and</strong>elen in een praktijksituatie en ontvangt<br />

hierop feedback van peers en begeleiders); Assessment (trainee toont eigen h<strong>and</strong>elen en eigen<br />

ontwikkeling aan). In het kader van het SURF-<strong>project</strong> ‘<strong>Digital</strong>e videodossiers bij het begeleiden<br />

en beoordelen van studenten’ zijn onder <strong>and</strong>ere bij de UU (Diergeneeskunde en Geneeskunde)<br />

pilots uitgevoerd waarin DIVIDU een rol speelde.<br />

In de <strong>project</strong>rapportage is geconcludeerd dat het digitale videodossier ‘een effectief middel is<br />

voor begeleiding van studenten: het vermogen tot zelfreflectie van studenten wordt groter, de<br />

motivatie voor reflectie op het eigen h<strong>and</strong>elen wordt groter, en studenten worden zich beter<br />

bewust van het eigen h<strong>and</strong>elen. Het digitale videodossier geeft in de gevallen waarin ook het<br />

aspect van beoordeling aan de orde is gekomen aan dat de competenties van studenten valide<br />

kunnen worden weergegeven. Dit betekent dat het voor studenten duidelijk is welke<br />

competenties zij moeten laten zien en voor docenten op welke competenties zij hun<br />

begeleiding en beoordelingen moeten afstemmen’.1<br />

Feedback op peers kan op verschillende manieren een rol spelen in de beoordeling: 1. de docent<br />

betrekt de feedback die de peer geeft op een medestudent, bij de beoordeling van de peer, 2. de<br />

docent betrekt de ‘reactie’ van de medestudent op de feedback bij de beoordeling van de<br />

medestudent, 3. De docent gebruikt de genoemde tools om zelf de studenten van feedback te<br />

voorzien.<br />

Het Annotatiesysteem is ontwikkeld voor peerfeedback (zie ook Turnitin), maar kan een rol<br />

vervullen bij het (semi-) geautomatiseerd nakijken en beoordelen van essayvraagstukken en<br />

vervult daarmee een functie bij het tonen van bekwaamheid op het gebied van ‘knows how’.<br />

De Peerfeedbacktool en Dividu kunnen een functie vervullen bij zowel ‘shows how’ als ‘does’ .<br />

Portfolio-toetsing<br />

Een portfolio is een georganiseerde, doelgerichte documentatie van de<br />

pr<strong>of</strong>essionele groei en van het leerproces van een student. Het portfolio bevat een (digitale)<br />

collectie van bewijsmateriaal waarmee de student zijn competenties, kennis en vaardigheden als<br />

1 Meer informatie over de inzet van DIVIDU in het kader van beoordeling staat op<br />

https://www.surfgroepen.nl/sites/dividossier/h<strong>and</strong>boek/Wiki%20Pages/Home.aspx<br />

21


zich onwikkelende pr<strong>of</strong>essional zichtbaar maakt. Het portfolio is een instrument in h<strong>and</strong>en van de<br />

student (Kösters & Ritzen, 2002).<br />

Portfolio’s spelen een steeds grotere rol in het onderwijs en vervullen een belangrijke functie bij<br />

het tonen van bekwaamheid op het niveau van ‘Does’.<br />

Bij de dOO wordt reeds op diverse plaatsen gebruik gemaakt van het portfolio. Portfolio’s krijgen<br />

betekenis voor de student op het moment dat ze werken in een praktijk gerichte context<br />

(bijvoorbeeld co-schappen). Het onderzoek naar de validiteit en betrouwbaarheid van portfolio’s<br />

staat nog in de kinderschoenen: van Keulen & ter Braak (2008) geven aan dat het portfolio zowel<br />

beperkingen als mogelijkheden kent. Diverse klinische vaardigheden en de patiëntbejegening<br />

blijken bijvoorbeeld niet uit het portfolio, deze zullen via directe observatie beoordeeld moeten<br />

blijven. Cognitieve aspecten zoals het klinisch redeneren en de verslaglegging zijn wel goed te<br />

beoordelen via het portfolio. Driessen (2008) concludeert op basis van eigen en <strong>and</strong>er onderzoek,<br />

dat het portfolio een goed instrument is om reflectievaardigheden te stimuleren en te beoordelen.<br />

met acceptabele interbeoordelaarsbetrouwbaarheid.<br />

Er zijn verschillende digitale tools voor portfolio op de markt, via SURF kan een licentie worden<br />

aangeschaft voor een portfolio dat is gebouwd in SharePoint, de Uva werkt met een portfolio dat is<br />

ontwikkeld in het kader van de <strong>Digital</strong>e Universiteit. De dOO maakt (nog) geen gebruik van een<br />

digitale versie van het portfolio.<br />

Tot slot kan worden opgemerkt dat voor deze tools dezelfde voorwaarden gelden als voor eerder<br />

genoemde tools (zie ook ho<strong>of</strong>dstuk 4): licentiekosten, computers en zalen, bedrijfszekerheid,<br />

voorinvestering (waaronder ondersteuning van docenten), op termijn tijdwinst van docenten,<br />

presentatie goede voorbeelden, kwalitatief goede toetsvragen.<br />

Bijlage 1 bevat een matrix, die is bedoeld om de vraag ‘wel/niet digitaal toetsen’ te onderbouwen.<br />

22


TOOL MEERWAARDE VOORWAARDE<br />

Toetsprogramma’s met<br />

voorgestructureerde<br />

antwoorden<br />

• toevoegen beeld en geluid<br />

• sequentiemanipulatie<br />

• analyse vragen Kwaliteitsverhoging<br />

Toetsen met stemkastjes • formatief toetsen<br />

• gerichte feedback<br />

• geen grote computerlokalen nodig<br />

• verhoogt interactie/levendigheid<br />

Adaptief toetsen • iedere student unieke toets<br />

Essaytoetsing met<br />

voorgestructureerde<br />

feedback<br />

• kortere toetsen mogelijk<br />

• minder vragen<br />

• h<strong>and</strong>ig bij kennis die niet veroudert<br />

•<br />

• mogelijkheid om feedback voor te<br />

structureren<br />

• gegeven feedback kan rol spelen in<br />

beoordeling<br />

• op basis van feedback is<br />

waardering/cijfer mogelijk<br />

Essaytoetsing • s<strong>of</strong>tware beoordeelt essay / open vraag<br />

Peerfeedback:<br />

schrijfproducten<br />

Annotatiesysteem<br />

Peerfeedback:<br />

samenwerken<br />

Peerfeedback: gedrag<br />

in context DIVIDU<br />

• h<strong>and</strong>ig bij terugkerende opdrachten en<br />

grote groepen studenten<br />

• docent neemt slechts steekproef<br />

• inhoudsgerichte discussie<br />

• feedback kan rol spelen in beoordeling<br />

• feedbackontvanger kan feedback<br />

waarderen (‘raten’)<br />

• feedbackgever kan vragen om<br />

specifieke feedback<br />

• studenten kunnen elkaar beter in<br />

samenwerking beoordelen dan docent<br />

• student (feedback-vrager) kan zelf<br />

input leveren voor<br />

beoordelingsinstrument<br />

• ondersteunt analyse, reflectie en<br />

assessment van h<strong>and</strong>elen in<br />

beroepspraktijk<br />

• ondersteunt docent bij beoordeling<br />

Portfolio • geeft student verantwoordelijkheid<br />

voor beoordeling<br />

• beoordelen is ‘bewijzen’ (i.p.v.<br />

‘afstraffen’)<br />

• rechten op beeld/geluid<br />

• inrichten itembank<br />

• tijd beschikbaar stellen voor<br />

kwaliteitsverbetering<br />

• beheer van stemkastjes is ‘nabij’<br />

• didactische ondersteuning<br />

• fraude-maatregelen bij<br />

summatief toetsen<br />

• items uittesten op 1000<br />

studenten<br />

• kies programma dat feedback<br />

door docent en door student<br />

mogelijk maakt (vergelijk<br />

Turnitin met Markin).<br />

• programma vereist 300<br />

oefentrials per essay<br />

• student krijgt<br />

verantwoordelijkheid in<br />

beoordelingsproces<br />

• veronderstelt onderwijs waarin<br />

studenten in teams werken aan<br />

een opdracht<br />

• beoordeling van studenten<br />

betrekken bij beoordeling<br />

docent<br />

• veronderstelt leren in<br />

praktijksituaties<br />

• intentie is om een<br />

videorepository op te bouwen<br />

• vraagt didactische<br />

ondersteuning van de docent<br />

• portfolio speelt wezenlijke rol in<br />

beoordeling<br />

23


5.3 Conclusie<br />

In dit ho<strong>of</strong>dstuk worden diverse mogelijkheden van digitaal toetsen beschreven.<br />

1. Het opbouwen van kennis is een belangrijk onderdeel van competentieontwikkeling. In de<br />

praktijk blijkt dat het opbouwen van deze kennis en het meten <strong>of</strong> deze kennis verworven is, nog<br />

altijd efficiënt en effectief kan plaatsvinden via toetsvragen en toetsen (Draaijer 2004). Toetsen<br />

kunnen op verschillende manieren worden ondersteund door digitale tools. Tools zijn niet alleen<br />

beschikbaar voor het direct meten van kennis via ‘knows’ en ‘knows how’ , maar ook voor het<br />

indirect toetsen van kennis via ‘shows how’ en ‘does’. Dat betekent dat digitale toetsen kunnen<br />

worden ingezet om ieder niveau van bekwaamheid, zoals aangeduid in de piramide van Miller, te<br />

bewijzen <strong>of</strong> te checken.<br />

2. Iedere tool heeft een specifieke meerwaarde. Deze meerwaarde kan alleen worden gerealiseerd<br />

als aan een aantal voorwaarden is voldaan. Deze zijn in bovensta<strong>and</strong>e tabel samengevat.<br />

Tot slot: Onlangs heeft het College van bestuur van de UU besloten Blackboard Next Generation<br />

UU-breed (Bb NG) te implementeren. Bb NG belo<strong>of</strong>t veel op het gebied van toetsen. De inzet van<br />

digitale toetsen zal toenemen en efficiëntie opleveren als de ondersteuning goed is geregeld: hierin<br />

is een belangrijke rol weggelegd voor het IDC (onderhoud, beheer, computerlokalen, basale<br />

workshops) en het IVLOS (didactische inzet, kwaliteitsverhoging).<br />

24


6. Wensen en beleid in UMCU m.b.t. digitaal toetsen<br />

6.1 Algemeen<br />

Het UMCUtrecht voert al sinds de jaren 80 een actief beleid waar het gaat om electronische<br />

ondersteuning van het onderwijs. In 1999 een afdeling ICTO (ICT in onderwijs) ingesteld, in 2005<br />

ondergebracht als team voor Onderwijstechnologie in het Expertisecentrum voor Onderwijs en<br />

Opleiding. Het accent in deze ondersteuning heeft steeds vooral gelegen op electronische<br />

leeromgeving en op hulp bij het gebruik van COO applicaties. Geleidelijk echter heeft electronische<br />

toetsing in de laatste jaren een sterkere plaats verworven. In het bijzonder het toetsprogramma<br />

TestVision wordt door de opleidingen en toenemend door <strong>and</strong>ere gebruikers in het UMC toegepast.<br />

In vergelijking met <strong>and</strong>ere UMC’s in Nedederl<strong>and</strong> wordt in het UMCU relatief veel gedaan aan<br />

electronische toetsing. Ook worden toenemend aan voorlichting en training van docenten gedaan.<br />

Deze ontwikkeling kan <strong>and</strong>erzijds echter ook beschouwd worden als slechts een voorzichtige eerste<br />

stap in de richting van het ‘reduceren van papierwerk’ bij toetsing. Kwantitatief, in vergelijking met<br />

het aantal toetsen dat jaarlijks door opleidingen van het UMCU worden afgenomen, beslaat<br />

electronische toetsing niet meer dan enkele procenten, veelal voor kleine groepen studenten. Ook<br />

is er geen beleid van de examencommissie in deze richting. Dit <strong>EMP</strong> <strong>project</strong> beoogt een basis te<br />

leveren op grond waarvan beleid zou kunnen worden geformuleerd.<br />

6.2 Medewerkers<br />

Er zijn drie brainstormsessies gehouden met medewerkers, studenten en leidinggevenden van de<br />

verschillende opleidingen in de dOO. De sessies waren bedoeld om de wensen van opleidingen<br />

m.b.t. papierloos toetsen /digitalisering uitga<strong>and</strong>e van de huidige situatie (toetsen) te<br />

inventariseren. Na een schets van de mogelijkheden mbt digitaliseren & toetsen kregen de<br />

aanwezigen de volgende twee vragen voorgelegd:<br />

Vraag 1: welke wensen zijn er m.b.t. digitalisering van (specifieke) toetsen?<br />

Vraag 2: wat is daarvoor nodig?<br />

Wensen<br />

Samenvattend kwamen de volgende wensen naar voren:<br />

1. De meerwaarde van digitale toetsing zit in de feedback-mogelijkheid: instaptoets (drempel:<br />

weet student voldoende) en tussentoets (diagnostisch wat is niveau).<br />

2. <strong>Digital</strong>e toetsing kan docenten tijdwinst opleveren, maar vraagt organisatie, afstemming<br />

(databank), ondersteuning en samenwerking.<br />

3. De casustoetsing is een belangrijke vorm van toetsing vanwege de mogelijkheden van beeld en<br />

geluid. Deze vorm zal door steeds meer docenten worden gebruikt.<br />

4. Toetsing van open vragen (essay toetsing) zou erg h<strong>and</strong>ig zijn, maar lijkt weinig reëel (zie<br />

ho<strong>of</strong>dstuk 5).<br />

5. Toetsing met behulp van voorgestructureerde feedback (semi-geautomatiseerd) is een reële<br />

optie.<br />

6. Ontsluiten van goede voorbeelden waarin de kracht van het digitaal toetsen duidelijk wordt en<br />

ook de mogelijkheden van de verschillende soorten vragen.<br />

7. Gezamenlijk optrekken met <strong>and</strong>ere UMC’s via l<strong>and</strong>elijke SURF-<strong>project</strong>en.<br />

Voorwaarden:<br />

1. Ondersteuning:<br />

• gebruik toetsprogramma<br />

• inhoudelijk (onderwijskundig)<br />

• zoveel mogelijk just in time (via Doo).<br />

25


2. Start maken met inrichten van een itembank met vragen.<br />

3. Beschikbaarheid grote computerzalen (150 werkplekken)<br />

6.3 Conclusie<br />

Gezien de snelle ontwikkeling van electronische en internet toepassingen in de maatschappij,<br />

waaronder de verschuiving van schrijven met de h<strong>and</strong> met pen en papier naar het gebruik van<br />

beeldscherm en toetsenbord, mag de toepassing van “paper-<strong>and</strong>-pencil” toetsen bijna als archaïsch<br />

worden beschouwd. De beperkte toepassing van computerondersteunde toetsing mag daarom<br />

enerzijds als verwonderlijk worden gezien. Deze voorzichtigheid bij de invoering ervan lijkt echter<br />

terecht.<br />

Zoals elders in deze rapportage van het <strong>EMP</strong> <strong>project</strong> Papierloos toetsen is te lezen zijn er talloze<br />

r<strong>and</strong>voorwaarden waar voldaan moet worden, ook <strong>and</strong>ere, meer technische, dan die in de<br />

brainstormsessies zijn genoemd. Het is terecht dat beleid om toetsing in te voeren in dit stadium<br />

vooral moet komen vanuit individuele examinatoren die zelf verantwoordelijkheid nemen voor hun<br />

eigen toetsen. Veel docenten zijn nog onbekend met de mogelijkheden en voorwaarden van<br />

digitale toetsing op grote schaal. Het opleggen van een beleid vanuit een examencommissie zou<br />

waarschijnlijk thans tot veel problemen leiden. De resultaten van dit <strong>project</strong> kunnen echter wel<br />

beleidvorming in deze richting ondersteunen.<br />

26


7. Het vervolg<br />

7.1 Uitgangspunten<br />

Op basis van onderzoek naar de behoefte aan digitaal toetsen onder docenten komen onder <strong>and</strong>ere<br />

de volgende punten naar voren:<br />

1. De meerwaarde van digitale toetsing zit in de feedback-mogelijkheid: instaptoets (drempel:<br />

weet student voldoende) en tussentoets (diagnostisch wat is niveau).<br />

1. De casustoetsing is een belangrijke vorm van toetsing vanwege de mogelijkheden van<br />

beeld en geluid. Deze vorm zal door steeds meer docenten worden gebruikt.<br />

2. Toetsing met behulp van voorgestructureerde feedback (semi-geautomatiseerd) is een<br />

reële optie.<br />

3. Ontsluiten van goede voorbeelden waarin de kracht van het digitaal toetsen duidelijk wordt<br />

en ook de mogelijkheden van de verschillende soorten vragen.<br />

In het artikel Twelve tips for computer-based assessment in medical education komen de volgende<br />

punten naar voren:<br />

1. Maak duidelijk waarom digitaal getoetst moet worden<br />

2. Gebruik een erkend s<strong>of</strong>tware programma<br />

3. Zorg voor adequate hardware en infrastructuur<br />

4. Onderzoek de mogelijkheden van digitaal toetsen<br />

5. Selecteer de vraagtypes<br />

6. Start met een pilot maar hou rekening met schaalvergroting bij keuze van s<strong>of</strong>tware en<br />

ondersteuning<br />

7. Schipper niet op beveiligingsaspecten<br />

8. Hoe er rekening mee dat technologie faalt<br />

9. Informeer de studenten<br />

10. Geef feedback over resultaten<br />

11. Train de docenten<br />

12. Evalueer de examens<br />

Aan bovensta<strong>and</strong>e punten wordt al deels voldaan in het UMCU. Een en <strong>and</strong>er resulteert tot de<br />

volgende <strong>EMP</strong> aanvraag waarin de nadruk ligt op het duidelijk krijgen door middel van onderzoek<br />

wat de meerwaarde is van verschillende vormen van digitaal toetsen in vergelijking met<br />

conventioneel toetsen, op het opzetten van een ondersteunende organisatie die het mogelijk maakt<br />

om deze vorm van toetsing ook op grote schaal adequaat en efficiënt uit te voeren en op het<br />

ontsluiten van goede voorbeelden.<br />

7.2 <strong>EMP</strong> voorstel Ontwikkeling en invoering Digitaal toetsen<br />

Vervolg op <strong>EMP</strong> <strong>project</strong> voorwaarden voor papierloos toetstijdperk.<br />

Ontwikkeling en invoering digitaal toetsen<br />

Betrokken eenheden/medewerkers<br />

UMCU, Directie Onderwijs en Opleiding - dOO, ExpertiseCentrum - EC, afdeling<br />

OnderwijsTechnologie - OT.<br />

Martien Quaak, Sam Verdoes, Olle ten Cate, Lars van der Plank<br />

Coördinatoren en docenten van het onderwijs in Geneeskunde - GNK, BioMedische<br />

Wetenschappen - BMW, Algemene Gezondheids Wetenschappen - AGW en het<br />

OpleidingsCentrum - OC.<br />

Anke Lecluse, Cecile Ravesloot, Marijke Canninga, Saskia Mol, Joost Frenkel<br />

Projectteam:<br />

27


Martien Quaak, Olle ten Cate, Anke Bootsma, Sam Verdoes, Cecile Ravesloot, Magda<br />

Ritzen<br />

Omschrijving <strong>project</strong><br />

Het toenemend gebruik van digitaal toetsen wordt met dit <strong>project</strong> ondersteund.<br />

- Docenten/coördinatoren worden ondersteund met het opzetten en onderhouden van<br />

een eigen vragenbank en het samenstellen van een examen.<br />

- Voor het afnemen van de toetsen worden in dit <strong>project</strong> de mogelijkheden om op grote<br />

schaal toetsen af te nemen onderzocht (met a<strong>and</strong>acht voor fraudebestendigheid en<br />

draagbare apparatuur zoals stemkastjes).<br />

- In verschillende pilots wordt ervaring opgedaan met het afnemen van verschillende<br />

soorten toetsen (gesloten en open vragen, toetsen met voor-gestructureerde<br />

feedback) met een schaalgrootte van 60 -150 studenten.<br />

- Vergelijkend onderzoek van papieren en digitale toets.<br />

- Onderzoek van de manier van ondersteuning van de docenten bij het opzetten en<br />

onderhouden van de vragenbank en het afnemen en verwerken van de toetsen<br />

(a<strong>and</strong>acht voor toetskwaliteit).<br />

- Ontsluiten van goede voorbeelden<br />

In grote lijnen bestaat het <strong>project</strong> uit drie delen:<br />

1. Onderzoek van de ervaringen met twee vormen van toetsing: op papier en<br />

digitaal.<br />

2. Opstellen van een organisatieopzet waarbij de uitvoering van het digitaal<br />

toetsen is ingebed in de organisatie, afstemming met de directie ICT van de<br />

UU (o.a. vanwege toetslokalen).<br />

3. Vervolg pilots die aansluiten bij het <strong>EMP</strong> Project Papierloos toetsen, met name<br />

gericht op de aspecten van toetsen op grote schaal en semi-geautomatiseerd<br />

toetsen.<br />

Voorwaarde<br />

Het is van belang dat het management van de dOO achter dit plan staat en bereid is om<br />

voor de uitvoering van de pilots en de inbedding van de uitvoering van het digitaal<br />

toetsen beslissingen te nemen die een continuering van de uitvoering van het digitaal<br />

toetsen waarborgen.<br />

Doel<br />

Het verder onderzoeken van de ervaringen met digitaal toetsen en het inbedden van<br />

digitaal toetsen (op grote schaal) in de organisatie.<br />

Gewenst resultaat<br />

- Een beschrijving van de onderzoeksresultaten van de vergelijking tussen papier en<br />

digitaal toetsen.<br />

- Een opzet van een organisatievorm waarin digitaal toetsen is ingebed in de<br />

organisatie.<br />

- Een evaluatie van de pilots van toetsen op grote schaal.<br />

Doorlooptijd <strong>project</strong><br />

Start zomer 2008 en doorlopend tijdens studiejaar 2008-2009.<br />

Benodigde expertise IVLOS<br />

Onderwijskundige en strategische expertise om te komen tot een plan van aanpak en het<br />

ondersteunen en begeleiden van de uitvoering van dit <strong>project</strong>.<br />

28


Literatuur<br />

Berg, I. van den, Pilot, A. & Admiraal, W. (2005). Peer assessment als leermiddel. Voorbeelden uit<br />

het hoger onderwijs (IVLOS-Reeks). Utrecht: IVLOS, Universiteit Utrecht.<br />

Bull, J. <strong>and</strong> Stevens, D. (1999). The use <strong>of</strong> QuestionMark s<strong>of</strong>tware for formative <strong>and</strong> summative<br />

assessment at two universities IETI 36 (2) 128-136.<br />

Daniels, J. & Van der Vleuten, C. (2002). De rol van ICT in toetsen en beoordelen. In:<br />

Frencken, H., Nedermeijer, J., Pilot, A. en Dam, I. ten (2002). ICT in het hoger onderwijs. St<strong>and</strong><br />

van zaken. Utrecht/Leiden: IVLOS/ICLON, 37-51.<br />

Zie ook http://e-learning.surf.nl/e-learning/artikelen/1437.<br />

Dikli, S. (2006). An Overview <strong>of</strong> Automated Scoring <strong>of</strong> Essays. Journal <strong>of</strong> Technology, Learning,<br />

<strong>and</strong> Assessment, 5(1). Retrieved [October, 10, 2007] from http://www.jtla.org.<br />

http://www.vantagelearning.com/intellimetric/about.html<br />

Draaijer, S. (2004). Flexibilisering van Toetsing. Utrecht, <strong>Digital</strong>e Universiteit: pag. 20-21.<br />

Adaptief Toetsen<br />

Driessen, E. (2008). Educating the self-critical doctor: using a portfolio to stimulate <strong>and</strong> assess<br />

medical students'reflection. Academisch Proefschrift, Universiteit Maastricht.<br />

Willie Hols-Elders, Peter Bloemendaal, Nynke Bos, Martien Quaak, Roel Sijstermans, Peter de Jong.<br />

Twelve tips for computer-based assessment in medical education. Medical Teacher<br />

2008;30(7):673-678<br />

Keulen, J. van, & Braak, E.W.M.T. ter, (2008). Beoordelen met een portfolio in de co-schappen:<br />

voldoende betrouwbaar?, presentatie NVMO-congres 2008.<br />

Kösters, J.M.P. en Ritzen, M. (2002), Educatieve faculteit Amsterdam: Portfolio's in de<br />

lerarenopleiding in Driessen, E., Beijaard, D. e.a. (ed.), Portfolio's (pp. 80-97), Groningen, Wolters<br />

Noordh<strong>of</strong>f.<br />

Langewis, E. (2008). Verslag Grassroot Elektronisch Toetsen (intern document). Utrecht: CPIO,<br />

Universiteit Utrecht.<br />

Linden, W.J. van der, (2005). A Comparison <strong>of</strong> Item-Selection Methods for Adaptive<br />

Tests with Content Constraints. Journal <strong>of</strong> Educational Measurement, Vol. 42, No. 3, pp. 283–302.<br />

Milius, J. (2007). Schriftelijk tentamineren. Een draaiboek voor docenten in het hoger onderwijs<br />

(IVLOS-Reeks Hoger Onderwijs). Utrecht: IVLOS, Universiteit Utrecht.<br />

Miller, G. (1990). The assessment <strong>of</strong> clinical skills/competence/-performance. Academic Medicine<br />

65 (9), 63-67.<br />

Ogg, H., Beijering, J. & Moonen, J. (2004). W@@rde van E-learning. Utrecht: <strong>Digital</strong>e Universiteit.<br />

Paul, L., & Bergeijk, E. van (2007). Evaluatierapport Pilot Stemkastjes. Utrecht: Faculteit<br />

Geowetenschappen.<br />

29


Pol, J. van der, (2007). Facilitating online learning conversations. Exploring tool <strong>and</strong> affordances in<br />

higher education. Utrecht: IVLOS, Universiteit Utrecht.<br />

Sambell, K., Sambell, A. <strong>and</strong> Sexton, G. (1999). Student perceptions <strong>of</strong> the learning benefits <strong>of</strong><br />

computer-assisted assessment: a case study in electronic engineering, Chapter 19, 179-192 in<br />

Brown, S., Race, P. <strong>and</strong> Bull, J. (eds) Computer-Assisted Assessment in Higher Education London:<br />

Kogan Page/SEDA<br />

Tartwijk, J. van, E. Driessen, B. Hoeberigs, J. Kösters, M. Ritzen, K. Stokking en C. v.d. Vleuten,<br />

(2003). Werken met een elektronisch portfolio. Groningen: Wolters Noordh<strong>of</strong>f.<br />

Thissen, D., & Mislevy, R.J. (2000). <strong>Testing</strong> Algorithms. In Wainer, H. (Ed.) Computerized Adaptive<br />

<strong>Testing</strong>: A Primer. Mahwah, NJ: Lawrence Erlbaum Associates.<br />

Verkroost, M.J. (2002). Wel <strong>of</strong> niet geautomatiseerd toetsen? Geraadpleegd 29 augustus 2007, op<br />

de website van <strong>Digital</strong>e Didactiek: http://www.digitaledidactiek.nl/dd/toetsen/51<br />

30


Bijlage 1 Matrix wel/niet digitaal toetsen<br />

Analyseschema dat ondersteunend is aan de beslissing: digitalisering van toets ja/nee (inclusief voorbeelden)<br />

In deze bijlage worden drie manieren van digitaal toetsen bekeken:<br />

1. De MC-toets via een toetstool (gesloten vragen).<br />

2. De Utrechtse VoortgangsToets (UVT) via een toetstool (korte open vragen).<br />

3. Inzet van tools als stemkastjes en mobiele telefoon bij gesloten en korte open vragen.<br />

Deze drie manieren van digitaal toetsen worden nader bekeken: per fase in de toetscyclus is een swot-analyse uitgevoerd.<br />

Doel is te komen tot een gefundeerd besluit: wel <strong>of</strong> niet inzetten van een toetstool.<br />

Uitgangspunt:<br />

De SWOT-analyse is ondersteunend aan de keuze wel/niet digitaal (= papierloos).<br />

Het betreft toetsen die summatief (itt formatief) worden ingezet.<br />

Het betreft toetsen die digitaal kunnen worden afgenomen en/<strong>of</strong> verwerkt met speciale tools.<br />

Algemeen<br />

De voordelen van digitaal toetsen:<br />

• tijd- en plaatsonafhankelijk toetsen;<br />

• tijdsbesparing voor docenten vanwege automatisch beoordelen;<br />

• werken met databank met toetsvragen ad r<strong>and</strong>om toets samenstellen studenten kunnen toets meerdere keren maken zonder dezelfde vragen<br />

te krijgen vragen voorzien van moeilijkheidsniveau (goede studenten krijgen <strong>and</strong>ere vragen);<br />

• een digitale toets kan veel informatie leveren voor de docenten: wie heeft de toets gemaakt en met welk resultaat, en waar zitten hiaten in de kennis<br />

van studenten. Sommige toetsprogramma’s (zoals Testvision) leveren uitgebreide analysetools waarmee onder <strong>and</strong>ere de betrouwbaarheid van<br />

afzonderlijke vragen gecontroleerd kan worden. Goedkoper: bij het digitaal toetsen kan gebruik worden gemaakt van gedetailleerde kleurenfoto’s. Bij<br />

het gebruik van deze foto’s op papieren toetsen, lopen de kosten voor het drukken <strong>of</strong> printen van de toetsen al snel op;<br />

• mogelijkheid om adaptief te toetsen: d.w.z. dat het niveau van de vragen wordt aangepast aan de prestatie van studenten op eerder vragen.<br />

De nadelen van digitaal toetsen:<br />

• het invoeren van de vragen in een toetsprogramma kost extra tijd;<br />

• voor ad r<strong>and</strong>om samengestelde toetsen moeten veel vragen ontwikkeld worden. De mogelijkheden voor het stellen van open vragen beperkt, tenzij<br />

wordt gekozen voor essay-toetsprogramma nadeel is dat t programma veel ‘leertijd’ nodig heeft;<br />

• een grote databank vraagt om veel ontwikkelwerk en samenwerking met collega’s, ook over opleidingen heen;<br />

• mogelijkheden m.b.t. fraude.<br />

31


MC-toets<br />

Strengths Weaknesses Opportunities Threats<br />

Fase in cyclus /<br />

SWOT<br />

Toetsen van kennis die snel<br />

veroudert vraagt om een tool<br />

die door docent zelf kan<br />

worden beheerd.<br />

Voordelen digitaal toetsen. Nadelen digitaal toetsen. Transparantie: wat moet<br />

student weten (know/know<br />

how) en hoe wordt dat<br />

getoetst (ontwikkeling<br />

vragen, beoordeling /<br />

evaluatie).<br />

Toetsontwerp<br />

Let bij keuze van tool op<br />

gebruiksvriendelijkheid: wie<br />

voert vragen / antwoorden in;<br />

wie stelt toets samen; welke<br />

ondersteuning is voor wie<br />

nodig, hoeveel tijd vraagt dit?<br />

Ondersteund door tool:<br />

toetsboom opstellen:<br />

duidelijkheid in relatie<br />

cursusonderdeel-toets.<br />

Docenten moeten vragen<br />

invoeren en onderhouden,<br />

dit vereist: vaardigheid in<br />

omgaan met tool<br />

(zie bijv. Testvision).<br />

Constructie Toets kan worden gegenereerd<br />

uit (koppeling) toetsbank <strong>of</strong><br />

specifiek best<strong>and</strong> (aanvullend<br />

beeld/geluid).<br />

Mogelijkheid om meta-tags<br />

aan vragen te koppelen<br />

(sequentieel toetsen).<br />

Eenvoudiger om toetsvarianten<br />

te construeren (meta-tags).<br />

Ontwikkelen van een MCvraag<br />

kost veel docenttijd<br />

(onafh. van wel/niet<br />

digitaal).<br />

Mogelijkheid om adaptief te<br />

toetsen (samenwerking met<br />

<strong>and</strong>ere UMC’s).<br />

R<strong>and</strong>omisatie, zowel op het<br />

niveau van de vraag als op het<br />

niveau van de alternatieven.<br />

Adaptief toetsen alleen<br />

mogelijk op basis van<br />

grote investering (veel<br />

vragen, veel trials i ).<br />

Netwerk ligt plat.<br />

Uitsluiten van bepaalde<br />

vragen via tags (bv. voor<br />

Beschikbaarheid<br />

computers.<br />

Afname Inzet Multi-media.<br />

32


Fraude.<br />

hertentamen).<br />

R<strong>and</strong>omisatie.<br />

Fraude maatregelen<br />

nodig. ii<br />

Onvoldoende grote zalen op<br />

gewenst moment.<br />

Ook h<strong>and</strong>ig voor kleine<br />

groepen studenten.<br />

Beperkingen Testvision, bijv.<br />

back up tijdens afname?<br />

Mogelijkheid om vraag (fout)<br />

ter plekke aan te passen.<br />

Tool-vaardigheid studenten.<br />

-<br />

- Updaten van vraag-en<br />

antwoordmodellen.<br />

Beoordelen Nakijken van een mc-vraag kost<br />

weinig docenttijd<br />

(geautomatiseerd).<br />

Cijfer toekennen op basis<br />

van score.<br />

Snelle beoordeling, snelle<br />

terugkoppeling naar studenten.<br />

-<br />

- Aan rapportage koppelen:<br />

mogelijkheid van<br />

afspraak/spreekuur.<br />

Rapporteren Studenten kunnen onafhankelijk<br />

van tijd en plaats resultaten<br />

inzien.<br />

- Hogere kwaliteit vragen. -<br />

Analyse/evaluatie Statistische analyse op diverse<br />

niveaus, onder <strong>and</strong>ere over de<br />

kwaliteit van de toets.<br />

Conclusie:<br />

<strong>Digital</strong>iseren van een mc-tentamen is vooral zinvol wanneer:<br />

- er gewerkt wordt met verschillende varianten van een toets<br />

- beeld en geluid onderdeel uitmaken van de mc-vraag<br />

- een snelle terugkoppeling naar studenten is gewenst<br />

- er controle gewenst is op de kwaliteit van de vraag en de toets<br />

33


Toets met open korte vragen: de UVT iiiiv<br />

Fase in cyclus Strengths Weaknesses Opportunities Threats<br />

/ SWOT<br />

Toetsontwerp Ontwikkelen van een open Er zijn zowel bij ontwikkeling als<br />

vraag kost minder tijd dan beoordeling veel mensen<br />

ontwikkelen van een mc- betrokken!<br />

vraag.<br />

UVT via Testvision: veel klikwerk.<br />

v<br />

Ontwikkelen van vragen<br />

Indien wordt gekozen voor<br />

(afstemmen tussen docenten) en essaytoetsing: open vragen<br />

toetsconstructie via toetstool laten zich lastig automatisch<br />

levert tijdwinst op.<br />

beoordelen. Het ‘leren’ van<br />

het toetstool vraagt veel<br />

trials en inzet (bijsturing!)<br />

van docent.<br />

<strong>Digital</strong>iseren van afname levert<br />

tijdwinst op (antwoorden<br />

invoeren in toetstool, makkelijker<br />

leesbaar).<br />

Kosten en leertijd van tool<br />

voor ‘essaytoetsing’<br />

(benodigde aantallen testen<br />

/ studenten is 300): bij<br />

UMCU te weinig studenten<br />

om gebruik rendabel te<br />

maken.<br />

<strong>Digital</strong>iseren van correctie<br />

(nakijken van open vragen door<br />

computer=essaytoetsing vi ) levert<br />

nog meer winst op (evt.<br />

aanvullen met vangnet van<br />

docenten bij uitschieters).<br />

Let bij keuze van tool op<br />

gebruikersvriendelijkheid en<br />

leertijd: wie voert vragen /<br />

antwoorden in; wie stelt<br />

toets samen; welke<br />

ondersteuning is voor wie<br />

nodig?<br />

Door tussenkomst tool,<br />

minder betrokkenheid<br />

docent (minder a<strong>and</strong>acht<br />

voor updating vragen),<br />

meer aansturing van<br />

coördinator nodig.<br />

Ondersteund door tool:<br />

toetsboom opstellen:<br />

duidelijkheid in relatie<br />

cursusonderdeel-toets.<br />

Docenten moeten vragen<br />

invoeren en onderhouden, dit<br />

vereist: vaardigheid in omgaan<br />

met tool (zie bijv. Testvision).<br />

Constructie Alle vragen staan in 1<br />

database.<br />

Toets kan worden<br />

gegenereerd uit toetsbank<br />

(aanvullend beeld/geluid).<br />

Inhoudelijke check is mogelijk<br />

door coördinator van de UVT.<br />

Tool moet mogelijk maken om<br />

vragen toe te kennen aan<br />

Eenvoudiger om<br />

34


toetsvarianten te<br />

construeren (meta-tags).<br />

Mogelijkheid om meta-tags aan<br />

vragen te koppelen (sequentieel<br />

toetsen).<br />

verschillende docenten<br />

(Testvision=rechtenstructuur is<br />

onvoldoende fijnmazig).<br />

R<strong>and</strong>omisatie: volgorde<br />

vragen (cases).<br />

Ontwikkelen van open vraag kost<br />

weinig tijd (vergelijk mc-vraag).<br />

Voorstructureren van<br />

antwoorden.<br />

Netwerk ligt plat.<br />

Uitsluiten van bepaalde vragen<br />

(bv. voor hertentamen).<br />

Beperkingen Testvision, bijv.<br />

back up tijdens afname?<br />

Afname Studenten voeren<br />

antwoord in de tool in.<br />

Fraude.<br />

H<strong>and</strong>ig voor afname van kleine<br />

en grote groepen studenten.<br />

Beschikbaarheid computers.<br />

Inzet Multi-media (filmpjes<br />

en plaatjes).<br />

Onvoldoende grote zalen op<br />

gewenst moment.<br />

Fraude maatregelen.<br />

Mogelijkheid om vraag (waarin<br />

fout zit) ter plekke aan te<br />

passen.<br />

Tool-vaardigheid studenten.<br />

Mogelijkheid om als antwoord<br />

een plaatje te tekenen (meestal<br />

niet aanwezig in toetstools).<br />

Netwerk ligt plat.<br />

Back-up tijdens correctie.<br />

Leertijd docent.<br />

Bij ‘essaytoetsing’:<br />

docenten (tijd) eventueel alleen<br />

inzetten in gevallen van twijfel <strong>of</strong><br />

extreme scores.<br />

Tool moet mogelijk maken om<br />

antwoorden toe te kennen aan<br />

verschillende docenten<br />

(Testvision=probleem).<br />

Beoordelen Tijdsbesparing voor<br />

docenten:<br />

antwoorden zijn leesbaar,<br />

correctie kan eerder<br />

starten.<br />

Weerst<strong>and</strong> oudere (i.t.t.<br />

jongere) docent.<br />

Inzicht krijgen in tijd die het kost<br />

om vraag na te kijken (relatie<br />

bep. type vraag-correctietijd?).<br />

Updaten van vraag-en<br />

Bij ‘essaytoetsing’:<br />

- Tool moet input krijgen (trials)<br />

om te ‘leren’ / antwoorden te<br />

Snelle beoordeling<br />

(antwoorden digitaal<br />

beschikbaar), snellere<br />

terugkoppeling naar<br />

35


antwoordmodellen.<br />

studenten.<br />

Cijfer toekennen op basis van<br />

score.<br />

scoren.<br />

- Onwenselijk is beoordeling op<br />

spelfouten!<br />

-Twijfelgevallen moeten alsnog<br />

worden nagelopen door<br />

betrokken docent.<br />

Correctie via print:<br />

alle antwoorden op 1 vraag<br />

kunnen worden geprint.<br />

Automatische alert bij deadline<br />

correctie (mogelijk bij alle<br />

tools?).<br />

Aan rapportage koppelen:<br />

mogelijkheid van<br />

afspraak/spreekuur.<br />

Rapporteren Studenten kunnen<br />

onafhankelijk van tijd en<br />

plaats resultaten inzien.<br />

Betere kwaliteit van de vragen.<br />

Analyse / evaluatie Statistische analyse op<br />

diverse niveaus, onder<br />

<strong>and</strong>ere over de kwaliteit<br />

van de toets.<br />

Conclusie:<br />

<strong>Digital</strong>iseren van een tentamen met korte open vragen is vooral zinvol wanneer:<br />

- er gewerkt wordt met verschillende varianten van een toets<br />

- beeld en geluid onderdeel uitmaken van de korte open vraag<br />

- een snelle terugkoppeling naar studenten is gewenst<br />

- er controle gewenst is op de kwaliteit van de vraag en de toets<br />

De UVT is opgebouwd uit cases en korte open vragen (klinische en niet-klinische vragen). Deze vragen horen inhoudelijk bij elkaar. Loskoppeling van<br />

deze vragen is niet wenselijk.<br />

Bij de inzet van één tool t.bv. de UVT is van belang:<br />

1. zijn de vragen (beoordelingscheck) toe te wijzen aan specifieke docenten?<br />

2. hoe kan een antwoord op een korte open vraag worden voorgestructureerd t.b.v. correctie door de tool?<br />

36


Toetsen met stemkastjes / mobiele telefoons<br />

Fase in cyclus/SWOT Strengths Weaknesses Opportunities Threats<br />

Studenten zijn onzeker over<br />

techniek (komen de<br />

antwoorden goed binnen)<br />

Transparantie: wat moet<br />

student weten (know/know<br />

how) en hoe wordt dat<br />

getoetst (ontwikkeling<br />

vragen, beoordeling /<br />

evaluatie).<br />

Studenten werken niet<br />

vanuit overzicht van alle<br />

vragen (hebben geen<br />

controle)<br />

Voordelen<br />

stemkastjes/mobiel: de<br />

totaal score kan direct<br />

worden gepubliceerd<br />

Toetsontwerp<br />

Kosten: stemkastje<br />

aanschaffen? Kosten voor<br />

mobiel?<br />

Toetsen zijn heel eenvoudig<br />

up-to-date te houden door<br />

docent.<br />

Mobielnetwerk aanleggen<br />

ivm voorkomen van sms-<br />

kosten<br />

Ter plekke mogelijkheid om<br />

te besluiten om vragen<br />

wel/niet in te zetten:<br />

duidelijkheid in relatie<br />

cursusonderdeel-toets.<br />

Mogelijkheid om sequentieel<br />

te toetsen. Vragen worden<br />

na elkaar ge<strong>project</strong>eerd.<br />

Ontwikkelen van een MCvraag<br />

kost veel docenttijd<br />

(onafh. van wel/niet<br />

digitaal).<br />

Constructie Docenten moeten vragen<br />

invoeren en onderhouden,<br />

dit vereist: vaardigheid in<br />

omgaan met tool en<br />

powerpoint<br />

Mogelijkheid om h<strong>and</strong>matig<br />

adaptief te toetsen (bijv. bij<br />

totaalscore ≥ x)<br />

Toetsvraag wordt<br />

geknipt/geplakt uit<br />

toetsbank.<br />

Geen meta-tags nodig.<br />

Stemkastjes: verveelt snel<br />

Ook h<strong>and</strong>ig voor kleine<br />

groepen studenten<br />

Afname Inzet Multi-media<br />

Mobiel: kosten voor student<br />

<strong>of</strong> kosten m.b.t. campusprovider<br />

Stemkastjes, mobieltjes en<br />

ondersteunend materiaal<br />

nodig, bijvoorbeeld laptop<br />

met verwerkingss<strong>of</strong>tware,<br />

beamer (uitschrijven).<br />

R<strong>and</strong>omisatie en fraude<br />

maatregelen zijn niet nodig<br />

Door gebrek aan overzicht:<br />

sequentieel toetsen mogelijk<br />

Geen computers / zalen<br />

nodig<br />

Studenten zien toets vraag<br />

voor vraag en missen het<br />

37


overzicht; het verloop van<br />

de toets wordt volledig door<br />

de docent gestuurd -<br />

studenten kunnen zelf het<br />

tempo niet bepalen en niet<br />

teruggaan naar eerdere<br />

vragen<br />

-<br />

Ter plekke kan worden<br />

besloten om bepaalde<br />

onderwijsonderdelen<br />

wel/niet te intensiveren<br />

Geen directe terugkoppeling<br />

op individueel niveau<br />

Beoordelen van open vragen<br />

(antwoorden) kost veel tijd.<br />

Beoordelen Nakijken van een mc-vraag<br />

kost geen docenttijd en<br />

directe terugkoppeling op<br />

groepsniveau<br />

(geautomatiseerd).<br />

Nodig?<br />

Aan rapportage koppelen:<br />

mogelijkheid van<br />

afspraak/spreekuur<br />

Rapporteren Nodig?<br />

Studenten kunnen<br />

onafhankelijk van tijd en<br />

plaats resultaten inzien<br />

- Hogere kwaliteit vragen<br />

Analyse/evaluatie Statistische analyse op<br />

diverse niveaus (o.a. meer<br />

informatie over kwaliteit van<br />

toets)<br />

Let op: e.e.a. behoeft aanvulling op basis van info over stemkastjes en inzet mobiele telefoons..<br />

Inzet Digitaal potlood (electronic pencil).<br />

The pencil has a connection with a computer.<br />

Google did not give any meaningful results on electronic pencisl. In the key note presentation ALTc2007, the Anoto pen was mentioned. Anoto® digital<br />

pen/paper system that captures h<strong>and</strong>writing in digital form. The pen makes a pattern <strong>of</strong> tiny dots, which are too small to see in normal use - the paper<br />

just looks slightly <strong>of</strong>f-white. The pen has a camera which reads the dot pattern <strong>and</strong> records exactly where the pen is on the page - 70 times a second, to<br />

the nearest 0.3 mm This means that you have a digital record <strong>of</strong> what was written that can be analysed, for example to score a questionnaire or<br />

38


cognitive test automatically. Data are transferred to a PC via a docking cradle (or Bluetooth etc) <strong>and</strong> the resulting score is worked out automatically,<br />

without manual transcription. http://www.penscreen.com/<strong>Digital</strong>%20Pen.htm<br />

39


ALGEMEEN:<br />

Voorwaarden bij inzet van toetstools:<br />

- Ondersteuning en tijd voor docent<br />

- Gebruiksvriendelijke tool<br />

- Opzetten databank met toetsvragen (samenwerking)<br />

Algemene conclusies m.b.t. inzet van een toetsbank (i.t.t. tentamenvarianten):<br />

• een toetsbank (veel toetsvragen) inrichten is vooral zinvol voor grote studentaantallen (ontwikkeltijd).<br />

• een toetsbank is zinvol wanneer meerdere docenten zijn betrokken bij het onderdeel / de toetsing (beheer)<br />

• een toetsbank inrichten is zinvol wanneer vragen om een <strong>of</strong> <strong>and</strong>ere reden voorzien moeten worden van een meta-tag (bijv. specifieke volgorde)<br />

i Winer & Mislevy (2000): It is impossible to field an operational adaptive test with br<strong>and</strong>-new, unseen items; all items must be pretested with a large enough sample to<br />

obtain stable item statistics. This sample may be required to be as large as 1,000 examinees. Each program must decide what percentage <strong>of</strong> the test can reasonably be<br />

composed <strong>of</strong> unscored pilot test items.<br />

ii Fraude maatregelen: vragen in r<strong>and</strong>om volgorde, alternatieven in r<strong>and</strong>om volgorde, inloggen op bepaalde tijd <strong>of</strong> voor bepaalde tijdsduur, alleen vanaf de<br />

computerleerzalen, checken door surveillanten <strong>of</strong> inlognaam klopt met hun collegekaart, onmogelijk module te verlaten, onmogelijk te internetten.<br />

iv De UVT: Per toets (20 vakgebieden), die 3 keer per jaar wordt aangeboden aan 4 de en 5 de jaars Geneeskunde studenten, worden er 40 vragen in de vorm van casuïstiek<br />

gesteld en per casus is er een klinische en een biomedische vraagstelling. De voorzitter van de Examencommissie geeft opdracht voor het aanleveren van de vragen. De<br />

antwoorden van studenten op deze casuïstiek worden vervolgens fysiek in tweeën gesplitst en per docent, die ook de vragen aangeleverd heeft, beantwoord. Vervolgens<br />

worden deze gedeelten weer samengevoegd. Per antwoord zijn er 3 punten te verdelen. De student heeft minimaal een 5 nodig als gemiddelde van de laatste 4 deelnames<br />

aan de toets en om door te mogen naar het 6 de jaar.<br />

v Testvision vereist veel klikwerk: Voorbeeld 1: een toets klaarzetten op het web: Inloggen op Administratieve module eerder gemaakte CSV-file met studentgegevens<br />

inlezen Inloggen op TestVision Eerder samengestelde toets toewijzen aan studenten Inloggen op Internetmodule Toets exporteren Inloggen op TestVision<br />

website Uploaden toets<br />

vi IntelliMetric needs to be trained with a set <strong>of</strong> pre-scored essays with known scores assigned by human raters. These essays are then used as a foundation to extract the<br />

scoring scale <strong>and</strong> the wisdom <strong>of</strong> the human raters: 300 essays are required for training (Dikli, 2006, p. 23).<br />

40


Bijlage 2 Verslagen brainstormsessies<br />

4 febr. 08 Resultaten brainstorm GNK ‘mogelijkheden digitaal toetsen’.<br />

Aanwezig:<br />

T.W. van Haeften, P.H. Steenbergh (Paul), C. van Hoven (Celine), A.L. Bootsma (Anke), G. Croiset<br />

(Gerda), A.H. Verdoes (Sam), M.J.Quaak (Martien), F. L<strong>and</strong>sman (Fraukje), W.P.M. Hols (Willie) en<br />

M. Ritzen (Magda).<br />

Mogelijkheden mbt digitaal toetsen:<br />

Algemeen<br />

Voordelen:<br />

- Casus toetsing – realistisch (6 groene stippen= goed idee<br />

- Audiovisuele mogelijkheden (5 groene stippen)<br />

- In te zetten als staptoets bij blok (is beginniveau goed genoeg, o.a. bij co-schappen) (5 groene<br />

stippen)<br />

- Adaptieve toetsen h<strong>and</strong>ig, bijvoorbeeld tav de UvT (proeftest) en Farmacotherapie (3 niveau’s)<br />

(3 groene stippen)<br />

- Kwaliteitsanalyse (2 groene stippen)<br />

- Mogelijkheid van databank (met <strong>and</strong>ere UMC’s?) (1 groene stip)<br />

- Alle toetsen digitaal en gevarieerd, behalve clinical skills (2 rode stippen=minder goed idee)<br />

Formatief: voordeel voor studenten:<br />

- feedback-optie is verrijkend, want beeld krijgen van eigen niveau en beeld krijgen van waar<br />

het in het betreffende blok om gaat (4 groene stippen)<br />

Voordeel voor docenten:<br />

- zicht krijgen op hiaten in de groep (1 groene stip)<br />

Summatief: voordeel voor docenten:<br />

• open vragen na laten kijken<br />

• ondersteunende vakken toetsen<br />

• toetsen van open vragen: KLO, Kennisvragen en histologie, pathologie, CT-scan, afbeeldingen.<br />

Voorwaarde: heen en weer springen tussen vragen moet mogelijk blijven<br />

Voorwaarden:<br />

1. Ondersteuning:<br />

• gebruik toetsprogramma<br />

• inhoudelijk (onderwijskundig)<br />

• zoveel mogelijk just in time (via Doo).<br />

2. Start maken met inrichten van een databank met vragen.<br />

3. Ontsluiten van goede voorbeelden waarin de kracht van het digitaal toetsen duidelijk wordt en<br />

ook de mogelijkheden van de verschillende soorten vragen.<br />

4. Gezamenlijk optrekken met <strong>and</strong>ere UMC’s via SURF-<strong>project</strong>en.<br />

Conclusie:<br />

- De meeste aanwezigen vinden Casustoetsing de belangrijkste vorm van toetsing. Digitaal toetsen<br />

ondersteunt dit doordat er plaatjes en bewegend beeld toegevoegd kunnen worden.<br />

- <strong>Digital</strong>e toetsing is h<strong>and</strong>ig omdat het meerdere functies kan vervullen en feedbackmogelijkheid<br />

heeft: instaptoets (drempel: weet student voldoende) en tussentoets (diagnostisch wat is niveau).<br />

- <strong>Digital</strong>e toetsing kan docent werk uit h<strong>and</strong>en nemen, maar vraagt organisatie, afstemming<br />

(databank), ondersteuning en samenwerking.<br />

41


13 mei 08 Resultaten brainstorm AGW en OC ‘mogelijkheden digitaal toetsen’.<br />

Aanwezig:<br />

Roely Witvoet (OC), Corinne Vollbehr (OC), Jeroen de Groot (AGW), Truus van der Ho<strong>of</strong>t (AGW),<br />

Jaap van der Bijl (AGW), Claudia Gamel (AGW), Martien Quaak (Expertisecentrum) en Magda<br />

Ritzen (IVLOS).<br />

Mogelijkheden mbt digitaal toetsen:<br />

OC (2 personen):<br />

• Alle kennis digitaal toetsen (Testvision) (2 groene OC-stippen).<br />

• bij schrijftoetsen: mogelijkheid om te controleren op ongeoorlo<strong>of</strong>d hergebruik (fraude door<br />

hergebruik van voorga<strong>and</strong>e jaren) (1 groene stip).<br />

• Digitaal portfolio inzetten: summatief en formatief.<br />

AGW (4 personen):<br />

• Twijfels over zin / mogelijkheden van digitaal toetsen bij het opzetten van onderzoek, opstellen<br />

van een onderzoeksverslag, schrijven van een artikel. Mogelijkheid: peerfeedback via tool!<br />

• <strong>Digital</strong>e ondersteuning (essay toetsing) bij het onderdeel ‘Kwaliteit van Zorg’ (studenten<br />

schrijven een samenvatting en een betoog) beoordelen studenten zichzelf a.d.h.v. het ideale<br />

(voorbeeld) antwoord. Pilot loopt. (1 groene stip).<br />

• <strong>Digital</strong>e correctie / feedback van open-vragen (3 groene stippen, waarvan1 van OC)<br />

• Toetsing waarin student kan laten zien wat hij weet: dit is een kwaliteitsaspect, toets sluit niet<br />

goed aan bij inhoud cursus.<br />

• Checklistpunten (criteria) die door een (toets)programma worden omgezet in een waardering /<br />

scoring (2 rode stippen)<br />

• feedback-optie is verrijkend, want beeld krijgen van eigen niveau en beeld krijgen van waar<br />

het in het betreffende blok om gaat (2 groene OC-stippen).<br />

Voorwaarden:<br />

OC:<br />

1. Ondersteuning is goed geregeld (Lars en Sam), maar graag meer inzicht in mogelijkheden van<br />

het programma. Nu voelt men zich te afhankelijk van ondersteuners (scoring is weinig doorzichtig,<br />

enz.). Men wil het zelf doen (opm. dit is ook de bedoeling).<br />

2. Te weinig computerzalen beschikbaar op gewenst moment (aantal computers is geen probleem<br />

= 30 studenten per keer) ( Er is ook een keer in het Studiel<strong>and</strong>schap een toets afgenomen).<br />

AGW:<br />

1. Essay toetsing : betrouwbaar programma ontbreekt, evenals massa (voldoende trials i.v.m.<br />

leercurve van programma)<br />

2. Ontsluiten van goede voorbeelden waarin de kracht van het digitaal toetsen duidelijk wordt en<br />

ook de mogelijkheden van de verschillende soorten vragen.<br />

3. Gezamenlijk optrekken met <strong>and</strong>ere UMC’s via SURF-<strong>project</strong>en.<br />

Conclusie:<br />

• OC en AGW: <strong>Digital</strong>e toetsing kan docent werk uit h<strong>and</strong>en nemen, maar vraagt organisatie,<br />

afstemming (databank), ondersteuning en deskundigheidsbevordering van docent.<br />

• Het OC is al vanaf 2006 bezig met kennistoetsing via Testvision en merkt duidelijk meerwaarde<br />

(tijdwinst, kwaliteitscontrole).<br />

• AGW (enige opleiding in Nederl<strong>and</strong>) ziet vooral mogelijkheden in essay-toetsing, een<br />

programma corrigeert de antwoorden op korte open vragen (wellicht t.z.t. ook op lange open<br />

vragen –artikelen-, maar daar is onvoldoende massa voor).<br />

Divers:<br />

Er ontstond een gesprek naar aanleiding van het feit dat studenten de toets soms niet goed<br />

afgestemd vinden op de kennis die de student in het blok heeft verworven. Dat heeft voor een deel<br />

te maken met een onvolledige match onderwijsinhoud – toets, maar er kan ook worden nagedacht<br />

over manieren waarop studenten hun kennis beter kunnen etaleren. Dit kan via een portfolio, maar<br />

wellicht zijn er meer mogelijkheden.<br />

42


2 juni 08 Resultaten brainstorm BMW ‘mogelijkheden digitaal toetsen’.<br />

Aanwezig:<br />

Astrid Freriksen (opleidingscoördinator) , Elly Holthuizen, Marloes Letteboer, Paul Steenbergh,<br />

Isabel Thunnissen, Steven Bream (student), Evelien Berends (student), Martien Quaak<br />

(Expertisecentrum) en Magda Ritzen (IVLOS).<br />

Mogelijkheden mbt digitaal toetsen<br />

Nakijken open vragen:<br />

• Criteria voor beoordeling moeten zinvol / compleet zijn<br />

• Korte lijnen (niet complex): opzetten van een vragenbank moet makkelijk uitvoerbaar zijn<br />

• Just in time: nakijken van vragen moet snel uitvoerbaar zijn<br />

• Samenwerken binnen de opleiding en tussen opleidingen (is ook belangrijk buiten digitale<br />

toetsing)<br />

• Tekeningen en formules moeten ook beoordeeld kunnen worden<br />

• Inzetten computer bij open vragen in de zin van ‘voorselectie’.<br />

Mogelijkheid om tijdens tentamen digitale best<strong>and</strong>en in te kunnen kijken (en af te kunnen<br />

sluiten).<br />

Mogelijkheid van een <strong>and</strong>er type vragen<br />

• Verschillende niveaus<br />

• Interactief / simulaties (BMS)<br />

• Compiler check<br />

Mogelijkheid van verschillende soorten toetsen<br />

• multiple choice<br />

• open vragen elektronisch nakijken<br />

• open vragen h<strong>and</strong>matig nakijken, afname digitaal 2<br />

Vraag: tot wanneer kun je spreken van ‘open vragen’?<br />

Valt een voorgestructureerd antwoord hier ook onder?<br />

Opmerking: Op zich krijgt men voldoende tijd om een tentamen (met open vragen) na te kijken,<br />

maar iedereen voelt een enorme werkdruk en een tentamen moet binnen 10 werkdagen<br />

nagekeken zijn!<br />

Voorwaarden:<br />

Goede computerzalen (wat betreft grootte). Nu zijn er te weinig computerzalen beschikbaar op een<br />

gewenst moment.<br />

Toets in het Studiel<strong>and</strong>schap is niet ideaal!<br />

Let op privacy van student bij het maken van de toets (‘afkijken’)<br />

Let op poorten die open/dicht moeten staan en programma’s die afgegrendeld moeten zijn.<br />

Conclusie:<br />

• <strong>Digital</strong>e toetsing kan docent werk uit h<strong>and</strong>en nemen, vooral als dat kan met ‘open vragen’.<br />

• BMW ziet vooral mogelijkheden in digitale mogelijkheden bij toetsing van ‘open vragen’, een<br />

programma corrigeert de antwoorden op korte open vragen.<br />

2 Studenten schrijven minder op wanneer ze de antwoorden digitaal moeten invoeren.<br />

43


Bijlage 3 Tips om fraude te voorkomen<br />

Elly Langewis, 2008.<br />

Toetsconstructie: r<strong>and</strong>omisatie<br />

1. Vragen in r<strong>and</strong>om volgorde<br />

• Eventueel klusters van ger<strong>and</strong>omiseerde vragen<br />

• Eventueel r<strong>and</strong>om trekken uit één <strong>of</strong> meerdere groepen vragen<br />

2. Vraag zelf in r<strong>and</strong>om vorm<br />

• Alternatieven in r<strong>and</strong>om volgorde<br />

• Inhoud in r<strong>and</strong>om variatie (bv. links/rechts , <strong>of</strong> licht/donker verwisselen<br />

etc)<br />

1. Niet bij alle vragen mogelijk<br />

2. Exponentiële groei aantal varianten bij meerdere te verwisselen<br />

begrippen<br />

3. Goede antwoord is daardoor niet hetzelfde voor elke variant<br />

Inloggen<br />

3. Inloggen op bepaalde tijd<br />

• Ervóór: alleen docenten/studentassistenten<br />

• Erna: alleen mogelijk (eigen) antwoorden te bekijken<br />

• Checken van datum + tijd via de server, niet de locale pc (meestal alhet<br />

geval)<br />

4. Alleen vanaf de computerleerzalen<br />

• Inloggen met een paswoord dat pas ter plekke wordt uitgereikt<br />

• Checken van collegekaart met inlognaam<br />

5. Inloggen voor beperkte tijdsduur<br />

• Bij herstarten midden onder de toets wordt gebruikte tijd weer afgetrokken<br />

• Herstarten met goedkeuring docent<br />

1. Docent moet dan ook ID en password geven<br />

• Waarschuwing ruim van te voren<br />

• Afmaken van huidige vraag<br />

• Aan einde tijd automatisch alle ongemaakte vragen fout<br />

Tijdens de toets<br />

6. Onmogelijk module te verlaten<br />

• Geen taakbalk beschikbaar<br />

• Geen alt-tab mogelijk<br />

• Window schermvullend<br />

7. Onmogelijk te internetten<br />

• Niet altijd af te schermen<br />

• Door surveillanten controleren<br />

44


Bijlage 4 Twelve tips for computer-based assessment in<br />

medical education<br />

Willie Hols-Elders, Peter Bloemendaal, Nynke Bos, Martien Quaak, Roel Sijstermans, Peter de Jong.<br />

Notes on contributors<br />

W.P.M. Hols-Elders, MSc is associate pr<strong>of</strong>essor at the Center for Research <strong>and</strong> Development <strong>of</strong><br />

Education at the University Medical Center Utrecht in the Netherl<strong>and</strong>s.<br />

P.M. Bloemendaal, MSc is assistant pr<strong>of</strong>essor at the department <strong>of</strong> Surgery at the Leiden University<br />

Medical Center in the Netherl<strong>and</strong>s.<br />

N.R. Bos, MSc is E-learning consultant at the Academic Medical Center – University <strong>of</strong> Amsterdam<br />

in the Netherl<strong>and</strong>s.<br />

Dr. M.J. Quaak is senior consultant at the Center for Research <strong>and</strong> Development <strong>of</strong> Education at<br />

the University Medical Center Utrecht in the Netherl<strong>and</strong>s.<br />

R. Sijstermans, MSc is E-learning coördinator at the Academic Medical Center – University <strong>of</strong><br />

Amsterdam in the Netherl<strong>and</strong>s.<br />

Dr. P.G.M. de Jong is staff adviser E-learning at the Center for Education in Internal Medicine at the<br />

Leiden University Medical Center <strong>and</strong> chair <strong>of</strong> the NVMO Special Interest Group on E-Learning in<br />

the Netherl<strong>and</strong>s.<br />

All contributors are member <strong>of</strong> the Special Interest Group on E-learning <strong>of</strong> the Netherl<strong>and</strong>s<br />

Association <strong>of</strong> Medical Education<br />

Correspondence:<br />

Willie Hols-Elders, MSc<br />

Center for Research <strong>and</strong> Development <strong>of</strong> Education<br />

University Medical Center Utrecht<br />

P.O. Box 85090, HB4.05<br />

3508 AB Utrecht<br />

The Netherl<strong>and</strong>s<br />

Email: w.p.m.hols@umcutrecht.nl<br />

Word count: 3449<br />

Willie Hols-Elders, Peter Bloemendaal, Nynke Bos, Martien Quaak, Roel Sijstermans, Peter de Jong.<br />

Twelve tips for computer-based assessment in medical education. Medical Teacher<br />

2008;30(7):673-678<br />

45


Abstract<br />

The use <strong>of</strong> computers in education in general <strong>and</strong> in medical education in particular is nowadays<br />

well established, but the use <strong>of</strong> computer-based assessment (CBA) in higher education lags behind.<br />

In this article we explore the reasons for this situation <strong>and</strong> provide tips for teachers to guide the<br />

introduction <strong>of</strong> CBA, based on our experiences. Attention is given to benefits <strong>and</strong> drawbacks <strong>of</strong> CBA<br />

hardware solutions, the choice <strong>of</strong> s<strong>of</strong>tware, types <strong>of</strong> test questions, security, instructing students<br />

<strong>and</strong> teachers <strong>and</strong> evaluation.<br />

Introduction<br />

Since decades, the use <strong>of</strong> computers in medical education, <strong>and</strong> in higher education in general, has<br />

become common in all sorts <strong>of</strong> settings, be it for classroom teaching, self-directed learning or other<br />

purposes (Kulik, Kulik <strong>and</strong> Cohen 1980; Sargeant 2005). By now, many h<strong>and</strong>written activities have<br />

been replaced, <strong>and</strong> even in clinical settings electronic patient records rapidly replace scribbled<br />

dossiers. The era <strong>of</strong> written books is gradually transforming to an era <strong>of</strong> electronic media. Their use<br />

for assessment purposes however seems to lag behind. In most medical schools, paper-<strong>and</strong>-pencil<br />

tests are still common or even the only form <strong>of</strong> knowledge assessment, even though CBA can have<br />

clear advantages (Cantillon et al. 2004; Peterson et al. 2004; Hayes et al.1996; Grunewald et al.<br />

2004; Kronz et al. 2000). CBA opens new ways for place-independent <strong>and</strong> time-independent<br />

testing; it provides possibilities for purposeful sequencing <strong>of</strong> questions; it gives the option to work<br />

with images, still or moving; to adapt the composition <strong>of</strong> tests to previous performances <strong>of</strong> the<br />

student; scores can rapidly be calculated <strong>and</strong> tailored feedback can be given to individual students,<br />

to name just a number <strong>of</strong> advantages. Even skills such as communication pr<strong>of</strong>iciency can be tested<br />

with computers (Hulsman et al. 2004; Kennedy et al. 2008; Salpeter 2003). Students have been<br />

found to appreciate CBA (Ogilvie et al. 1999; Sambell et al. 1999; King 1995; Johnstone 2006).<br />

The use <strong>of</strong> computers inherently makes the process <strong>of</strong> assessment subject to automation, can help<br />

relieve faculty from an administrative <strong>and</strong> time consuming burden, while potentially enhancing the<br />

test quality (Johnstone 2006; Doukas & Andreatos 2007; Bull & Collins 2002).<br />

In the Netherl<strong>and</strong>s, CBA is still exceptional in undergraduate medical education, particularly for<br />

summative purposes, <strong>and</strong> we believe that this reflects the situation in many countries. Why is this<br />

the case?<br />

Several causes can be identified, such as the lack <strong>of</strong> technical knowledge <strong>and</strong> skills to develop CBA<br />

among medical teachers <strong>and</strong> no time or need felt to acquire this knowledge, a lack <strong>of</strong> resources<br />

<strong>and</strong> a lack <strong>of</strong> computer facilities to execute CBA. But we do observe a gradual increase <strong>of</strong> interest<br />

in CBA.<br />

With the following twelve tips, we want to share our experiences so far. We do not want to<br />

suggest that transforming the habit <strong>of</strong> paper-<strong>and</strong>-pencil testing to CBA is easy, particularly with<br />

large numbers <strong>of</strong> students. On the contrary, using computers for assessment <strong>of</strong> students on a large<br />

scale is a complex task <strong>and</strong> campus wide implementation is a challenging endeavour. Many aspects<br />

must be taken into account before CBA can be effectively <strong>and</strong> efficiently incorporated in the<br />

curriculum.<br />

46


Tip 1 – Make explicit <strong>and</strong> communicate why CBA should be introduced<br />

It is important to determine why CBA is beneficial to the institution. Implementing CBA brings<br />

about investments in technology <strong>and</strong> human resources. Many individual teachers are not in a<br />

position to provide these conditions. There needs to be a plan, <strong>and</strong> it needs to l<strong>and</strong> on the desk <strong>of</strong><br />

the managers who decide. Convincing reasons are a necessary foundation <strong>of</strong> the plan. Which<br />

benefits can be listed?<br />

Assessment can be performed independently <strong>of</strong> time <strong>and</strong> place. You may like to give students the<br />

possibility to test their own level <strong>of</strong> knowledge at a self selected moment in time. Another reason to<br />

use CBA is the possibility to automatically calculate results at the end <strong>of</strong> an exam. Using a question<br />

bank with evaluation features can help to efficiently improve the quality <strong>of</strong> education <strong>and</strong> the<br />

validity <strong>of</strong> assessments in the curriculum. Other benefits include those mentioned in the<br />

introduction.<br />

An essential distinction is the use <strong>of</strong> CBA for formative or for summative purposes. If the CBA is for<br />

self-evaluation only, questions from former exams can be re-used <strong>and</strong> feedback can be provided<br />

for optimal learning <strong>of</strong> the student. Security is not important <strong>and</strong> students can take the CBA where<br />

<strong>and</strong> when they want for quizzes or self evaluation. Frequent formative evaluation <strong>of</strong> students’<br />

progress is a clear advantage <strong>of</strong> CBA that is not easily attained without computers.<br />

Tip 2 - Use an established item bank<br />

Many paper-<strong>and</strong>-pencil tests are constructed in the weeks before the examination, in integrated<br />

courses <strong>of</strong>ten by several teachers who send draft test questions. The drawback <strong>of</strong> this procedure is<br />

that test quality may vary considerably over occasions if no stable documentation <strong>of</strong> previous tests<br />

exists <strong>and</strong> is used. The computer is an excellent tool not only to deliver tests, but to manage item<br />

<strong>and</strong> test production (De Jong et al. 1998). An item bank with a thoughtful blueprint <strong>of</strong> topics that<br />

covers all essential elements <strong>of</strong> the course can greatly enhance the content validity <strong>of</strong> tests.<br />

Consistency <strong>of</strong> similar tests over time is specifically useful in outcome based education with<br />

specified objectives. This is not a prerogative <strong>of</strong> CBA, but the computer can be very helpful to<br />

manage an item bank.<br />

From such a databank, individual questions can be re-used in time, but also cross-field examination<br />

is possible. By adding statistics on used items, the quality <strong>of</strong> questions <strong>and</strong> tests can be monitored<br />

<strong>and</strong> improved. Items in the bank must be classified with labels <strong>of</strong> relevant characteristics to<br />

facilitate a balanced composition <strong>of</strong> the test. Labels with clinical questions could refer to (a)<br />

discipline, (b) stage <strong>of</strong> the clinical encounter or key-feature that is questioned such as diagnosis,<br />

examination, treatment or complications, <strong>and</strong> (c) relevance, significance or priority <strong>of</strong> the objective<br />

(must this topic be included in every test or only sometimes?). Industry <strong>of</strong>fers several item bank<br />

systems for CBA. Question Mark Perception ® is one example; EGEL <strong>and</strong> TestVision ® are other<br />

examples, used in The Netherl<strong>and</strong>s. Virtual learning environments such as Blackboard ® also <strong>of</strong>fer<br />

facilities for online assessment, but lack the questionbank facilities. We strongly advise medical<br />

schools to choose one established model <strong>and</strong> to build experience.<br />

Tip 3 - Ensure adequate computer hardware <strong>and</strong> infrastructure<br />

CBA requires adequate computer facilities. Many schools now have computer rooms for students,<br />

but <strong>of</strong>ten they are not necessarily designed for the purpose <strong>of</strong> CBA. Enough individual<br />

47


workstations, sufficiently separated, are needed to prevent cheating. Workstations should be<br />

incorporated in a secured network for central data storage <strong>and</strong> backup services. During an exam, a<br />

failure <strong>of</strong> the computer system <strong>and</strong> / or network, even for only a few minutes, is not acceptable.<br />

Centralized facilities <strong>of</strong>fer manageable services <strong>and</strong> equipment <strong>and</strong> easy ways to keep in control <strong>of</strong><br />

the students while performing the exam.<br />

One problem that medical schools face, when summative CBA is to replace regular tests, is the<br />

number <strong>of</strong> stations needed. If CBA happens infrequently but requires hundreds <strong>of</strong> stations, this<br />

investment may not likely be made. What other solutions are there?<br />

- First, is a collective test necessary? If a school or a subunit has a large high quality item bank,<br />

48<br />

students may be tested in small groups or individually, by drawing sample tests from the bank.<br />

If well stratified tests are drawn, they may be considered equal.<br />

- Second, students may be tested in shifts (Kreitler et al. 2003). If a test is given twice, in<br />

immediate sequence, communication between students may be avoided <strong>and</strong> the required<br />

hardware may be reduced to 50%.<br />

- Third, multiple locations may be used, as long as a network connection can be established.<br />

Even facilities that are usually not applied for education could be used. Schuwirth has described<br />

this for assessment <strong>of</strong> medical problem solving during clerkships (Schuwirth, 1998)<br />

- Fourth, If an adequate wireless network exists, laptop computers can be used in places where<br />

usually no computer facilities are present. These can be stored <strong>and</strong> distributed when needed,<br />

or personal devices can be used, provided that sufficient security measures are taken. In some<br />

cases, other portable devices may be used, such as PDAs.<br />

- Fifth, campus-wide collaboration may also alleviate the capacity problem. If your enrolment is<br />

large <strong>and</strong> other studies (law, social sciences etcetera) face the same wish to apply large scale<br />

CBA, a central location to accommodate different groups may be established.<br />

When CBA is regularly applied, a dedicated support team is recommended to be available to set up<br />

<strong>and</strong> maintain all computerized assessments. Such team should be compiled <strong>of</strong> experts in the fields<br />

<strong>of</strong> educational technology, IT development, IT infrastructure <strong>and</strong> security with medical teachers as<br />

content experts.<br />

Tip 4. Explore the unique possibilities <strong>of</strong> CBA<br />

CBA differs from paper-<strong>and</strong>-pencil tests roughly in two ways: (a) how it stimulates cognitive<br />

processes in students during a test <strong>and</strong> (b) how information is managed. Cognitive features <strong>of</strong> CBA<br />

that are not possible in paper-<strong>and</strong>-pencil test include the presentation <strong>of</strong> moving visual information<br />

(e.g., for items that focus on diagnosing neurological disorders, or items that require the detection<br />

<strong>of</strong> significant features in microscopic slides or in CT images), the presentation <strong>of</strong> auditory<br />

information (e.g., to recognise heart or lung murmurs), the presentation <strong>of</strong> events that change<br />

over time <strong>and</strong> interact with students’ responses (examinees may h<strong>and</strong>le cases by applying<br />

medication <strong>and</strong> respond to their effects). Information management possibilities <strong>of</strong> CBA include<br />

sequential <strong>and</strong> adaptive testing. An example <strong>of</strong> sequential testing is when pass/fail decisions are to<br />

be made for groups <strong>of</strong> student with a short test. Those scoring high <strong>and</strong> low may be categorized<br />

<strong>and</strong> leave the test, while those scoring around a cutting score may be provided with an extended<br />

test to allow for a more reliable pass/fail decision. Adaptive testing means that c<strong>and</strong>idates are<br />

presented with test items <strong>of</strong> differential levels, according to there immediate past performance.


Adaptive testing is specifically useful in formative tests. Poorly performing students may want to<br />

practice with more easy items, whereas smart or advanced student may like to answer increasingly<br />

difficult test items. Other aspects <strong>of</strong> information management in CBA include item banking,<br />

automated score calculation <strong>and</strong> psychometric analysis – these are covered in other tips.<br />

Tip 5 - Decide on the type <strong>of</strong> questions to be used<br />

The easiest types to use are closed format items <strong>of</strong> the multiple choice family, with alternatives<br />

ranging from 2 to 5. Closed format questions can be scored automatically. Other closed format<br />

questions are matching tests. Matching items with images urges c<strong>and</strong>idates to move the cursor to<br />

a spot <strong>of</strong> choice. Extended matching questions (Case & Swanson 1993) use multiple case vignettes<br />

<strong>and</strong> up to 20 alternatives to be matched with cases. Comprehensive Integrative Puzzle tests<br />

require students to match diagnostic categories with clinical scenarios (Ber, 2003) <strong>and</strong> Script<br />

Concordance Tests ask c<strong>and</strong>idates to estimate the change in likelihood <strong>of</strong> a diagnosis, after the<br />

addition <strong>of</strong> particular diagnostic information (Sibert et al. 2005). Both types <strong>of</strong> matching tests have<br />

been applied with computers. When very many alternative options are provided in so-called long-<br />

menu questions, students may type an answer that is recognised from a list, which resembles a<br />

constructed response item (Schuwirth at al. 1996).<br />

Open-ended questions require students to fill in answers by typing. Computerised open ended<br />

questions tests that require expert judgement may not seem to have advantages over paper-<strong>and</strong>-<br />

pencil tests, but there are a few. For one thing, reading h<strong>and</strong> written answers is avoided. Also,<br />

paper h<strong>and</strong>ling is not present when answers are presented on the screen. The marking may take<br />

place at convenient moments <strong>and</strong> places if the communication is web based. When short-answer-<br />

questions are used, the grouping <strong>of</strong> c<strong>and</strong>idates by questions may speed up the marking <strong>and</strong><br />

enhance its quality. Finally, if marks are entered on the computer screen, automatic scoring <strong>and</strong><br />

psychometric analysis is easily <strong>and</strong> quickly done, which is usually not executed with paper-<strong>and</strong>-<br />

pencil constructed response tests.<br />

Variation in questions in one test is no problem. There is not one type intrinsically better than<br />

another (Perkin 1999), but question format should be related to the objectives <strong>of</strong> the test. On the<br />

other h<strong>and</strong>, to guide the production <strong>of</strong> questions by several teachers it may be helpful to allow only<br />

a limited number <strong>of</strong> formats. This can also minimise confusion among students during the test.<br />

Tip 6 - Start small but think big in the choice <strong>of</strong> s<strong>of</strong>tware <strong>and</strong> support<br />

Making your first CBA test is thrilling <strong>and</strong> relatively simple. If successful, other teachers may join<br />

this effort in their own course, all dem<strong>and</strong>ing their own functionality. As the use <strong>of</strong> computer tests<br />

increases, the ability to scale up depends on the s<strong>of</strong>tware that is used <strong>and</strong> a dedicated support<br />

team is needed. This is where scalability becomes important. Keep in mind that you will probably<br />

want to integrate several computer exams to enable longitudinal follow-up <strong>of</strong> student’s<br />

performance. Another important fact you might want to think <strong>of</strong> is the possibility to integrate your<br />

CBA s<strong>of</strong>tware with the campus wide s<strong>of</strong>tware, such as student administrations systems. The key<br />

word here is “open st<strong>and</strong>ards”. The Sharable Content Objective Reference Model (SCORM) is the<br />

international st<strong>and</strong>ard for the exchange <strong>of</strong> e-learning specifications, including CBA questions. We<br />

advise to choose CBA s<strong>of</strong>tware that supports open st<strong>and</strong>ards in their data structure. It is not so<br />

much the functionality <strong>of</strong> the CBA s<strong>of</strong>tware that matters, but the way data (questions, answers <strong>of</strong><br />

49


students, categories <strong>and</strong> so on) are stored. Create databases you can read with st<strong>and</strong>ard database<br />

s<strong>of</strong>tware, to enable switching to other CBA s<strong>of</strong>tware in the future. Always think: ‘What if my <strong>project</strong><br />

has any success <strong>and</strong> is adopted by many other teachers?’<br />

Tip 7 - Don’t compromise on security issues in summative tests<br />

Examination is a driving force for students. Many students will do anything to pass their exams.<br />

The majority will actually study. But what if students can pass exams in a different way? Your<br />

database with questions is hot material for your students, so you must secure the system tightly.<br />

This also holds for scores <strong>and</strong> grades. Don’t let your students come near your CBA systems at any<br />

time. Computerised information may be accessed inadvertently more easily that paper copies <strong>of</strong><br />

exams. Some students are likely to outreach your digital capabilities!<br />

At some point in time however you will have to let your students get nearby your database with<br />

questions <strong>and</strong> answers: that is when your students take the digital examination. This is the<br />

weakest moment in the defence. One reported method used by students to copy complete exams,<br />

is to prepare the computer(s) before taking the examination. A classroom with controlled<br />

computers can prevent misuse. Some students would like to know how the database is accessed by<br />

the examination s<strong>of</strong>tware. Be sure to protect connection properties at all times <strong>and</strong> instruct<br />

secretaries <strong>and</strong> others working with it to do the same.<br />

Another aspect <strong>of</strong> security is to avoid access by students during the examination to other<br />

computers in the network or to the Internet. This can <strong>and</strong> should be blocked. You don’t want<br />

student to pass exams by googling the answers.<br />

A last security issue is authentication. At examination time, two entities are important; the exam<br />

itself <strong>and</strong> the student taking it. The exam is controlled by the teacher, but who controls the<br />

student? How do you know the proper student is taking the test? Even when the test is taken in a<br />

similar setting as a paper-<strong>and</strong>-pencil test, you must trust that students log on with their own<br />

identity. R<strong>and</strong>omisation <strong>of</strong> questions is an advantage for a class-based computer assessment<br />

(Rawles et al. 2002). It can decrease the security risks.<br />

Many medical schools have virtual learning environments including unique email addresses for all<br />

students with corresponding passwords. It is important to provide a secure way to enter this<br />

authentication. In the future, security measures such as biometrics or security devices that<br />

generate r<strong>and</strong>om numbers may be used. Integration <strong>of</strong> CBA s<strong>of</strong>tware with authentication<br />

mechanisms already in use may further secure the students’ identity.<br />

Web-based testing at a distance poses additional security challenges. Obligatory web-cameras<br />

cannot exclude fraud, <strong>and</strong> neither can the repeated asking for pass words, although this helps a<br />

bit. Summative distance tests are therefore not recommended at this stage <strong>of</strong> technology.<br />

Tip 8 – Be sure technology works, but be prepared in case <strong>of</strong> failure<br />

Technology problems are annoying during computer assisted instruction, but intolerable during<br />

exams. As full pro<strong>of</strong> electronic devices do not exist, <strong>and</strong> CBA requires a chain <strong>of</strong> conditions that<br />

should be met, all with intrinsic risks, you should be able to provide alternative testing options<br />

when problems occur. We recommend the ability to provide paper exams if necessary. A printed<br />

version <strong>and</strong> a rapid copy facility nearby may help to prevent disasters (Brown et al. 1999; Bull &<br />

50


McKenna 1999, 2003). Students’ work should also be backed up immediately after the exam on at<br />

least one safe server.<br />

Tip 9 – Inform <strong>and</strong> instruct students<br />

As with all exams, students must be well informed about place, conditions, rules <strong>and</strong> regulations<br />

concerning the exam. In addition, CBA may present additional challenges for them. At any rate, the<br />

time available for the test must be fully available for cognitive processing <strong>of</strong> questions <strong>and</strong><br />

answers. Computer facilities can hamper this if students do not underst<strong>and</strong> exactly what to do.<br />

Remember, most <strong>of</strong> them are stressed anyway. It is very useful to provide a mock exam<br />

beforeh<strong>and</strong> <strong>and</strong> to carefully instruct all students step-by-step. Specific attention may be given to<br />

security measures, see also tip 7. During the exam, the examiner <strong>and</strong> other staff are needed to<br />

supervise <strong>and</strong> explain procedures. When the available computer facilities do not allow all students<br />

to take the exam at the same time or the same place, additional instructions are needed. During<br />

many exams, announcements are given – this information should be uniform if students are not<br />

taking the exam together.<br />

Tip 10 - Provide feedback on results<br />

Students should preferably learn from the results <strong>of</strong> their exams. CBA has excellent possibilities to<br />

do this. During a self test, immediate feedback can be given to each question as well as scores.<br />

Feedback to answers can be adjusted <strong>and</strong> when collective tests are taken, students can be<br />

presented with personal information, contrasted with group scores.<br />

Formative tests may provide immediate <strong>and</strong> tailored feedback to the student. Summative tests,<br />

with groups <strong>of</strong> students, cannot provide feedback until everyone has finished the exam.<br />

With CBA it is possible to give summative scores <strong>and</strong> grades straight after the test. In case the<br />

teacher wants to make some adjustments, based on raw scores, grades may be communicated at a<br />

later stage. Other feedback may include a descriptive summary <strong>of</strong> the test, with suggestions for<br />

further reading.<br />

Tip 11 – Train teachers<br />

The effort teachers to master the technology is <strong>of</strong>ten underestimated in ICT rich environments if<br />

they are not well trained (Singer et al. 2000). Busy teachers need convenient ways to get<br />

acquainted with CBA. A one afternoon h<strong>and</strong>s-on teacher course on how to start computer based<br />

testing is usually enough to get teachers thrilled about the possibilities. Let them bring their own<br />

test questions <strong>and</strong> apply them with a step-by -step instruction, to ensure that CBA training has<br />

maximum benefit (Margerum-Leys & Marx 2002).<br />

Tip 12 - Evaluate exams<br />

Evaluation <strong>of</strong> the quality <strong>of</strong> a test can include opinions <strong>of</strong> students <strong>and</strong> psychometric analysis <strong>of</strong> the<br />

test. Obtaining quantitative <strong>and</strong> qualitative data rapidly about the exam is one <strong>of</strong> the strongest<br />

assets <strong>of</strong> CBA. The big advantage <strong>of</strong> CBA is that the efficient managing <strong>and</strong> administration <strong>of</strong><br />

students’ data. If a test is taken individually, as is the case when tests are individually drawn from<br />

an item bank, the psychometric information tha can be generated in limited, as reliability<br />

51


calculations require a group <strong>of</strong> students that have taken the test. But also individual remarks to<br />

questions by students may help to evaluate the test.<br />

Many tests can be improved after the test is taken before scores are made public. Psychometric<br />

analysis can identify items with unusual properties that may be discarded, leading to more reliable<br />

test scores. Statistical results provide useful information about the knowledge <strong>of</strong> the students, the<br />

effectiveness <strong>of</strong> a particular study program <strong>and</strong> the pr<strong>of</strong>iciency <strong>of</strong> the teacher preparing the<br />

questions.<br />

Conclusions<br />

Computer-based assessment <strong>of</strong>fers a range <strong>of</strong> advantages: place-independent assessment in<br />

formative test, the use <strong>of</strong> multimedia, the automatic processing <strong>of</strong> results, automatic statistical<br />

analysis <strong>of</strong> exams <strong>and</strong> the reusability <strong>of</strong> questions. However, before implementing CBA many things<br />

have to be considered. Summative tests do require conditions that are sometimes harder to meet<br />

than paper-<strong>and</strong>-pencil tests. The purpose <strong>and</strong> the aimed efficiency <strong>and</strong> costs must therefore be<br />

carefully considered.before implementing CBA<br />

The choice from the wide range <strong>of</strong> <strong>of</strong>fered systems makes it necessary for an institution to<br />

prioritize the above tips <strong>and</strong> moreover to involve a team <strong>of</strong> experts at an early stage in the<br />

selection <strong>of</strong> a CBA system.<br />

Establishing a dedicated support team is necessary for implemeng CBA within the institution <strong>and</strong><br />

for the maintenance <strong>of</strong> the technical <strong>and</strong> logistic processes it brings along.<br />

References<br />

Ber R. 2003. The CIP (Comprehensive integrative puzzle) assessment method. Medical Teacher<br />

52<br />

25(2):171-176.<br />

Brown S, Race P & Bull J. 1999. Computer-assissted assessment in Higher Education. London:<br />

SEDA <strong>and</strong> Kogan Page.<br />

Bull J <strong>and</strong> Collins C. 2002. The use <strong>of</strong> computer-assisted assessment in engineering: some results<br />

from the CAA national survey conducted in 1999. International Journal <strong>of</strong> Electronic<br />

Engineering Education 39/2: Accessed 15 April 2008, available at<br />

http://findarticles.com/p/articles/mi qa3792/is /ai n9070277.<br />

Bull J, McKenna C. 2003. Blueprint for Computer-assissted assessment. London: Routledge Falmer.<br />

Bull J, McKenna C. 1999. <strong>Testing</strong> Times, 1(1). Available at;<br />

http://www.caacentre.ac.uk/dldocs/NEWSLETTER1.pdf (Accessed 14 April 2008).<br />

Cantillon P, Irish B, Sales D. 2004. Using computers for assessment in medicine. BMJ 329:606-609.<br />

Case SM, Swanson DB. 1993. Extended-matching items: a practical alternative to free-response<br />

questions. Teaching <strong>and</strong> Learning in Medicine 5(2):107-115.<br />

De Jong PGM, Bloemendaal PM, Van Leeuwen T. 1998. Experiences with a central item bank for<br />

computer-based testing. In: The Eighth International Ottawa Conference on Medical<br />

Education <strong>and</strong> Assessment Proceedings Melnick DE (eds), vol 1. Philadelphia (USA),<br />

2000:151-4.<br />

Doukas N, Andreatos A. 2007. Advancing electronic assessment. International Journal <strong>of</strong><br />

Computers, Communications <strong>and</strong> Control 2(1):56-65.


Grunewald M, Heckemann RA, Wagner M, Bautz WA, Greess H. 2004. ELERA: A WWW Application<br />

for evaluating <strong>and</strong> developing radiologic skills <strong>and</strong> knowledge. Acad Radiol 11:1381-8.<br />

Hayes KA, Lehmann CU. 1996.The interactive patient: a multimedia interactive educational tool on<br />

the world wide web. MD Comput 13:330-4.<br />

Hulsman RL, Mollema ED, Hoos AM, de Haes JCJM, Donnison-Speijer JD. 2004. Assessment <strong>of</strong><br />

medical communication skills by computer: assessment method <strong>and</strong> student experiences.<br />

Med Educ 38:813-824.<br />

Johnstone. 2006 Comments to Senate Committee on Education Electronic Assessment Delivery.<br />

Available at:<br />

http://www.senate.state.tx.us/75r/Senate/commit/c530/h<strong>and</strong>outs06/100406.c530.Johnston<br />

e_Comments.pdf (Accessed 14 April 2008).<br />

Kennedy G, Gray K, Tse J. 2008. “Net Generation” medical students: technological experiences <strong>of</strong><br />

pre-clinical <strong>and</strong> clinical students, Medical Teacher, 30 (1):10-16.<br />

King T. 1995.Using computer-aided assessment (CAA) for objective testing in higher education: a<br />

case study at the University <strong>of</strong> Plymouth 121-128 in Hart J. Innovations in Computing<br />

Teaching SEDA Paper 88, Birmingham: Staff <strong>and</strong> Educational Development Association.<br />

Kreiter C, Peterson MW, Ferguson K, Elliott S 2003. The effects <strong>of</strong> testing in shifts on a clinical in-<br />

course computerized exam. Med Educ 37:202-04.<br />

Kronz JD, Silberman MA, Allsbrook WC, Epstein JI. 2000. A web-based tutorial improves practicing<br />

pathologists' Gleason grading <strong>of</strong> images <strong>of</strong> prostrate carcinoma specimens obtained by<br />

needle biopsy: a validation <strong>of</strong> a new medical education paradigm. Cancer 89:1818-23.<br />

Kulik JA, Kulik CC, & Cohen PA. 1980. 'Effectiveness <strong>of</strong> Computer Based College Teaching: A meta<br />

analysis <strong>of</strong> findings'; Review <strong>of</strong> Educational Research, 50(4): 525-544.<br />

Margerum-Leys J & Marx R. 2002.Teacher knowledge <strong>of</strong> educational technology: A study <strong>of</strong><br />

student teacher/mentor teacher pairs. Manchester, New Hampshire: Journal <strong>of</strong> Educational<br />

Computing Research 26(4):427-462.<br />

Ogilvie RW, Trusk TC, Blue AV. 1999. Students attitudes towards computer testing in a basic<br />

science course. Med Educ Vol. 33:828-831.<br />

Perkin M. 1999. Validating Formative <strong>and</strong> Summative Assessment, Sta <strong>and</strong> Educational<br />

Development Series 55-62. Kogan Page.<br />

Peterson MW, Gordon J, Elliott S, Kreiter C. 2004. Computer-based testing: initial report <strong>of</strong> exten-<br />

sive use in a medical school curriculum. Teach Learn Med. Winter 16(1):51-9.<br />

Rawles S, Joy M & Evans M. 2002. Computer-Assisted Assessment in Computer Science: Issues<br />

<strong>and</strong> S<strong>of</strong>tware, Research Report 387, Department <strong>of</strong> Computer Science, University <strong>of</strong><br />

Warwick, Coventry. Warren. Available at http://www.ics.heacademy.ac.uk/ (Accessed 14<br />

April 2008).<br />

J. Salpeter, 2003. 21st Century Skills: Will Our Students Be Prepared? Available at<br />

http://www.techlearning.com, (Accessed 14 April 2008)<br />

Sambell K, Sambell A, <strong>and</strong> Sexton G. 1999. Student perceptions <strong>of</strong> the learning benefits <strong>of</strong><br />

computer-assisted assessment: a case study in electronic engineering, Chapter 19, 179-192<br />

in Brown S, Race P, <strong>and</strong> Bull J. (eds) Computer-Assisted Assessment in Higher Education<br />

London: Kogan Page/SEDA.<br />

53


Sargeant JM. 2005. Medical education for rural areas: Opportunities <strong>and</strong> challenges for information<br />

54<br />

<strong>and</strong> communications technologies. J Postgrad Med [serial online] 51:301-7.<br />

Schuwirth LWT. 1998. An approach to the assessment <strong>of</strong> medical problem solving: computerized<br />

case-based testing. PhD dissertation, Maastricht University.<br />

Schuwirth LWT, Van der Vleuten CPM, St<strong>of</strong>fels HEHJ <strong>and</strong> Peperkamp AGW. 1996. Computerised<br />

long-menu questions as an alternative to open-ended questions in computerised assessment.<br />

Medical Education 30:50-55.<br />

Sibert L, Darmoni SJ, Dahamna B, Weber J, Charlin B. 2005. Online clinical reasoning assessment<br />

with the Script Concordance test: a feasibility study. BMC Med Inform Decis Mak. Jun 20<br />

5:18.<br />

Singer J, Marx RW, Krajcik J <strong>and</strong> Clay-Chambers J. 2000. Constructing extended inquiry <strong>project</strong>s:<br />

Curriculum materials for science education reform. Educational Psychologist 35(3): 165-178.<br />

Acknowledgements<br />

The authors thank Elize Berg, medical student at UMC Utrecht, for providing a recent paper on<br />

computer based assessment <strong>and</strong> Ali Leijen for reviewing the article.


Bijlage 5 Advies inzet stemkastjes als toetsmethode<br />

Froukje L<strong>and</strong>sman, 0145440. Onderwijsstage jan-mrt 2008; Schakeljaar 07-08; Groep P1-4<br />

Inleiding<br />

Tijdens het blok St<strong>of</strong>wisseling III en het daaropvolgende co-schap kindergeneeskunde wonen de<br />

studenten op vrijdagochtend interactieve colleges bij. Om de interactie met docenten te<br />

bevorderen is enkele jaren terug begonnen met het gebruik van stemkastjes. Omdat studenten<br />

weinig aanwezig waren op deze interactieve vrijdagochtend, zijn de colleges sinds enkele ma<strong>and</strong>en<br />

verplicht gesteld en geldt daarbij ook de eis dat 80% van alle toetsvragen op vrijdagochtend<br />

voldoende moet zijn, wil je je co-schapcijfer op Osiris ontvangen. Ter evaluatie van de<br />

stemkastjestoetsing heb ik 6 weken lang de colleges bijgewoond en heb ik een enquête afgenomen<br />

onder de studenten.<br />

De vraag die ik stelde aan het begin van deze onderwijsstage was als volgt:<br />

Hoe zouden we de stemkastjes, die gebruikt worden op vrijdagochtend tijdens de<br />

responsiecolleges, kunnen gebruiken om te toetsen voor een resultaat dat mee telt in de<br />

beoordeling van het blok st<strong>of</strong>wisseling III en het co-schap kindergeneeskunde? Wat zijn de<br />

organisatorische voorwaarden?<br />

Deze vraag wilde ik beantwoorden dmv de uitkomst van mijn observaties bij de responsiecolleges,<br />

de uitkomst van de afgenomen enquête onder studenten en aan de h<strong>and</strong> van een<br />

literatuuronderzoek. Helaas heb ik door gebrek aan tijd geen kans gezien om een uitgebreide<br />

literatuurstudie te doen en wil ik me in dit verslag beperken tot een advies op basis van mijn eigen<br />

observaties.<br />

Observaties interactieve colleges<br />

TOPS<br />

1. Meestal goede technische ondersteuning. Apparatuur werkt (grotendeels), de kaarten worden<br />

goed op naam uitgedeeld.<br />

2. Een aantal docenten gebruikt de antwoorden om te belangrijkste punten van het college aan te<br />

stippen.<br />

3. Enkele docenten bespreken de antwoorden direct na, dit geeft een duidelijke feedback naar de<br />

studenten.<br />

TIPS<br />

1. De studenten overleggen veel met elkaar, het resultaat van de toets lijkt me hierdoor minder<br />

betrouwbaar<br />

2. De h<strong>and</strong>out van een van de colleges worden voorafga<strong>and</strong> aan de toetsvragen uitgedeeld<br />

waardoor de antwoorden opgezocht kunnen worden<br />

3. Het komt regelmatig voor dat de vraagstelling niet helder is <strong>of</strong> dat vragen slecht gesteld zijn.<br />

Enkele vragen zijn verkeerd overgenomen in de presentatie en een aantal vragen komt niet<br />

overeen met de st<strong>of</strong> die daarna beh<strong>and</strong>eld werd in het college. Deze vragen werden dan ook<br />

overgeslagen.<br />

55


4. de vragen van medische psychologie waren voor een aantal studenten gelijk aan de vragen van<br />

enkele weken terug.<br />

5. In verhouding met het aantal colleges is er veel pauze. Enkele docenten zijn zelfs na een half<br />

uur al klaar met hun verhaal. Aan de ene kant is het prettig dat er geen lange, saaie colleges<br />

zijn, aan de <strong>and</strong>ere kant kan te veel pauze ook zorgen voor een lange ochtend waarin aan het<br />

eind weinig st<strong>of</strong> wordt opgenomen.<br />

6. Nieuwe groepen krijgen niet uitgelegd hoe het stemkastjessysteem werkt en daardoor is het<br />

iedere 2 weken onrustig in de collegezaal.<br />

Resultaten enquête voor studenten ter evaluatie van de toetsvragen<br />

56<br />

aantal studenten (n=46)<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Voorbereiding interactieve colleges<br />

0.0 0.5 1.0 1.5 2.0 2.5 3 (<strong>of</strong> meer)<br />

voorbereidingstijd (uren)<br />

20/46 (43%) bereidt de interactieve colleges niet voor. 22/46 (48%) besteedt een half uur tot een<br />

uur aan de voorbereiding. 4/46 (9%) besteedt 2 uur <strong>of</strong> meer aan de voorbereiding van het<br />

interactieve college.<br />

aantal studenten (n=47)<br />

1 6<br />

1 4<br />

1 2<br />

1 0<br />

8<br />

6<br />

4<br />

2<br />

0<br />

L is s a u e r F ie ld V a n d e n<br />

B r a n d e<br />

G e b r u i k t e b o e k e n t e r v o o r b e r e i d i n g<br />

L is s a u e r<br />

e n F ie ld<br />

L is s a u e r<br />

e n V a n<br />

d e n<br />

B r a n d e<br />

F ie ld e n<br />

V a n d e n<br />

B r a n d e<br />

L is s a u e r ,<br />

F ie ld e n<br />

V a n d e n<br />

B r a n d e<br />

A n d e r s G e e n<br />

22/47 (47%) gebruikt het boek Kindergeneeskunde van Van den Br<strong>and</strong>e ter voorbereiding op het<br />

interactieve college. 14/47 (30%) gebruikt geen boeken om zich voor te bereiden op het<br />

interactieve college. Illustrated textbook <strong>of</strong> paediatrics van Lissauer wordt door 16/47 (33%)


gebruikt in de voorbereiding. Tutorials in paediatric differential diagnosis van Field wordt door geen<br />

van de studenten als enige bron gebruikt ter voorbereiding op het interactieve college. 2/47 (4%)<br />

gebruikt dit boek icm Lissauer en eveneens 2/47 (4%) gebruikt dit boek icm met Lissauer en Van<br />

den Br<strong>and</strong>e.<br />

10/47 (21%) bereidt zich voor uit 2 <strong>of</strong> meer boeken uit de opgegeven literatuur.<br />

aantal studenten (n=46)<br />

45<br />

40<br />

35<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Gebruik Lissauer: Illustrated textbook <strong>of</strong> paediatrics en<br />

Field: Tutorials in paediatric differential diagnosis<br />

aangeschaft studiel<strong>and</strong>schap niet<br />

Lissauer<br />

15/46 (33%) heeft het boek Illustrated textbook <strong>of</strong> paediatrics van Lissauer aangeschaft. 19/46<br />

(41%) gebruikt dit boek in het studiel<strong>and</strong>schap. De overige studenten gebruiken dit boek niet.<br />

1/46 (2%) heeft het boek Tutorials in paediatric diffential diagnosis van Field aangeschaft. 4/46<br />

(9%) gebruikt dit boek in het studiel<strong>and</strong>schap. De overige studenten gebruiken dit boek niet.<br />

aantal studenten (n=45)<br />

35<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

zorgen de toetsvragen voor een betere voorbereiding op de<br />

interactieve colleges?<br />

ja nee geen mening<br />

32/45 (71%) bereidt zich door de toetsvragen niet beter voor op het interactieve college. 12/45<br />

(27%) bereidt zich beter voor door de toetsvragen op het interactieve college.<br />

Field<br />

57


58<br />

aantal studenten (n=45)<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

altijd meestal<br />

wel<br />

even vaak<br />

wel als<br />

niet<br />

Toetsing<br />

meestal<br />

niet<br />

nooit geen<br />

mening<br />

interactie met docenten<br />

nut toetsing<br />

overeenkomst vragen en<br />

opgegeven literatuur<br />

31/45 (69%) vindt dat de toetsvragen de interactie met de docenten bevorderen. 7/45 (15%)<br />

vindt dat dit even vaak wel als niet het geval is.<br />

19/46 (41%) vindt het altijd <strong>of</strong> vaak nuttig dat de st<strong>of</strong> getoetst wordt voorafga<strong>and</strong> aan het<br />

interactieve college. 22/46 (48%) vindt dit niet. 5/46 (11%) vindt dit even vaak wel als niet nuttig.<br />

26/46 (57%) vindt dat de toetsvragen op vrijdagochtend meestal niet <strong>of</strong> nooit overeenkomen met<br />

de opgegeven literatuur. 10/46 (22%) geeft aan niet te weten <strong>of</strong> de toetsvragen op vrijdagochtend<br />

overeenkomen met de opgegeven literatuur. 5/46 (11%) vindt dat de toetsvragen even vaak wel<br />

als niet overeenkomen met de opgegeven literatuur. 5/46 (10%) vindt dat de toetsvragen meestal<br />

<strong>of</strong> altijd overeenkomen met de opgegeven literatuur.<br />

aantal studenten (n=47)<br />

50<br />

45<br />

40<br />

35<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Moet het toetsresultaat meetellen voor het eindcijfer v/h coschap?<br />

ja nee geen mening<br />

44/47 (94%) vindt het niet goed als het resultaat van de toets mee gaat tellen voor het eindcijfer<br />

van het co-schap. 1/47 (2%) vindt het wel goed als het resultaat van de toets mee gaat tellen.<br />

Vraag 10<br />

Voor hoeveel procent zouden de toetsscores van de vrijdagochtenden mogen meetellen voor het<br />

eindoordeel van het co-schap?<br />

0 %


5 %<br />

10 %<br />

15 %<br />

20 %<br />

25 %<br />

Totaal: ? studenten<br />

Helaas is bij deze vraag iets misgegaan met de antwoorden van de studenten…<br />

Bespreking<br />

Voorbereiding<br />

Gemiddeld vulden 46 studenten de enquêtevragen in. Ruim 40% van de studenten bereidt de<br />

interactieve colleges niet voor. Van de studenten die zich wel voorbereiden, besteedt 85%<br />

maximaal een uur aan de voorbereiding. Kindergeneeskunde van Van den Br<strong>and</strong>e wordt door 22<br />

studenten gebruikt in de voorbereiding. Lissauer door 10 studenten en Field door 4 studenten.<br />

Waarbij Field alleen in combinatie met Lissauer en/<strong>of</strong> Van den Br<strong>and</strong>e gebruikt wordt. 14 studenten<br />

gebruiken geen boeken ter voorbereiding op de interactieve colleges.<br />

Field is door 1 student aangeschaft, 4 studenten gebruiken dit boek in het studiel<strong>and</strong>schap. 15<br />

studenten hebben Lissauer aangeschaft en nog eens 19 studenten gebruiken dit boek in het<br />

studiel<strong>and</strong>schap.<br />

Concluderend wordt er weinig gedaan aan de voorbereiding van de interactieve colleges. De<br />

voorbereiding geschiedt meestal uit Kindergeneeskunde van Van den Br<strong>and</strong>e. Lissauer en met<br />

name Field zijn door weinig studenten aangeschaft. Lissauer is echter wel door een kleine 40%<br />

gebruikt in het studiel<strong>and</strong>schap. Dit is niet per se ter voorbereiding op de colleges. Opvallend is dat<br />

slechts 14 studenten geen boeken gebruiken in de voorbereiding op het interactieve college, terwijl<br />

er 20 studenten zijn die zich niet voorbereiden.<br />

Toetsing<br />

41% vindt het (bijna) altijd nuttig dat de opgegeven literatuur getoetst wordt voorafga<strong>and</strong> aan de<br />

interactieve colleges. 48% is het hier niet mee eens. 69% vindt dat de toetsvragen de interactie<br />

met de docenten bevordert.<br />

57% van de studenten vindt dat de toetsvragen op vrijdag ochtend (bijna) nooit overeenkomen<br />

met de opgegeven literatuur. 11% vindt dat de toetsvragen even vaak wel als niet overeenkomen<br />

met de opgegeven literatuur. 22% geeft aan niet te weten <strong>of</strong> de toetsvragen overeenkomen met<br />

de opgegeven literatuur.<br />

94% vindt het op dit moment niet goed als het resultaat van de toets mee zou gaan tellen voor het<br />

eindcijfer van het co-schap.<br />

Concluderend vindt een kleine 70% van de studenten dat de toetsvragen de interactie met de<br />

docenten bevordert. Slechts een kleine 40% vindt het nuttig dat de opgegeven literatuur getoetst<br />

wordt voorafga<strong>and</strong> aan de interactieve colleges. Daarnaast vindt een ruime meerderheid dat de<br />

toetsvragen niet overeenkomen met de opgegeven literatuur en bijna niem<strong>and</strong> wil dat de<br />

resultaten van de toets mee gaan tellen voor het eindcijfer van het co-schap.<br />

Beantwoording vraag<br />

Hoe zouden we de stemkastjes, die gebruikt worden op vrijdagochtend tijdens de<br />

responsiecolleges, kunnen gebruiken om te toetsen voor een resultaat dat mee telt in de<br />

beoordeling van het blok st<strong>of</strong>wisseling III en het co-schap kindergeneeskunde? Wat zijn de<br />

organisatorische voorwaarden?<br />

De eerste organisatorische voorwaarde is dat er een sfeer gecreëerd dient te worden waarin de<br />

studenten gaan ervaren dat er sprake is van een toetsmoment. Nu wordt er nog veel overlegd in<br />

de collegezaal en dat maakt de uitslag van de toets onbetrouwbaar. Daarnaast viel me op dat<br />

nieuwe studenten geen uitleg krijgen over het stemkastjessysteem. Dit zorgt iedere 2 weken voor<br />

59


onrust in de collegezaal en onbegrip bij de studenten. Het niet weten wanneer de volgende vraag<br />

komt, maakt dat studenten verontwaardigd reageren als ineens de volgende vraag voorstaat.<br />

Tevens denk ik dat de onrust in de zaal verminderd kan worden door alle toetsvragen in één keer<br />

af te nemen. Hiermee wordt voorkomen dat de 1e spreker antwoord geeft op de vragen van de 2e<br />

spreker en weten de studenten en de organisatie precies wanneer er getoetst wordt. De ‘toetssfeer’<br />

zou je kunnen creëren door aan nieuwe studenten uit te leggen hoe het stemkastjessysteem werkt<br />

(eigen id-kaart, welke knopjes gebruiken), door één toetsmoment op de dag te hebben, door te<br />

zorgen voor stilte tijdens de toetsing en door vooraf aan te geven hoeveel tijd studenten hebben<br />

om een vraag te beantwoorden.<br />

Een tweede voorwaarde is het opstellen van een goede toets waarvan je weet wat je toetst en<br />

waarom je dit wilt toetsen. Daarbij is het belangrijk dat de toetsvragen overeenkomen met de<br />

opgegeven st<strong>of</strong>. Volgens een kleine 60% van de studenten is dit nu niet het geval. Daarnaast moet<br />

er rekening gehouden worden met de raadkans van de antwoorden, de wijze van vraagstelling en<br />

de betrouwbaarheid van een toets. Eveneens is het belangrijk om rekening te houden met het feit<br />

dat een student tijdens de toets niet meer kan terugbladeren om vragen te corrigeren <strong>of</strong> alsnog in<br />

te vullen indien het antwoord in eerste instantie niet paraat was, maar in tweede instantie wel.<br />

Een laatste voorwaarde voor de organisatie is de technische ondersteuning. Weliswaar werkte de<br />

computer en de stemkastjes meestal goed, het kwam toch geregeld voor dat enkele studenten hun<br />

stemkastje omruilden omdat deze niet goed werkten. Indien de stemkastjes als toetsmiddel<br />

gebruikt gaan worden, moet de apparatuur voor 100% functioneren en moet ook diegene die de<br />

apparatuur bediend kennis van zaken hebben.<br />

Concluderend zijn een goede ‘toetssfeer’, een valide en betrouwbare toets en goede technische<br />

ondersteuning belangrijke organisatorische voorwaarden om een betrouwbare toetsuitslag te<br />

krijgen van toetsing met gebruik van stemkastjes.<br />

Resultaten Enquête voor AIOS ter evaluatie van de toetsvragen<br />

60<br />

aantal aios (n=27)<br />

14<br />

12<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

Voorbereidingstijd onderwijsdag<br />

1 2 3 4 5 6 7 8<br />

tijd (uren)<br />

13/27 (48%) besteedt 1 uur aan de voorbereiding van de ma<strong>and</strong>elijkse onderwijsdag. Eén persoon<br />

besteedde 8 uur aan de voorbereiding van de onderwijsdag.


aantal aios (n=28)<br />

14<br />

12<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

Gebruikte boeken ter voorbereiding op onderwijsdag<br />

Nelson 2007<br />

Nelson vorige druk<br />

Kindertraumatologie<br />

(Kramer)<br />

20/28 (72%) heeft ter voorbereiding van de onderwijsdag het boek van Nelson gebruikt. Twaalf<br />

(43%) AIOS gebruikten de laatste druk uit 2007. Zes (21%) AIOS hebben geen boeken gebruikt<br />

om zich voor te bereiden. Niem<strong>and</strong> heeft gebruik gemaakt van het boek Kindertraumatologie van<br />

Kramer.<br />

aantal aios (n=28)<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Toetsvragen<br />

meestal wel om het even meestal niet geen mening<br />

Andere bron<br />

Geen<br />

bevorderen interactie met<br />

sprekers<br />

overeenkomen met opgegeven<br />

literatuur<br />

20/28 (71%) vindt dat de toetsvragen de interactie met de sprekers niet bevordert. 5/28 (18%)<br />

vindt dit wel, en 3/28 (11%) maakt het niet uit.<br />

6/26 (23%) vindt dat de toetsvragen op de onderwijsdag meestal wel overeenkomen met de<br />

opgegeven literatuur. 7/26 (27%) vindt dit niet. De overige 13 (50%) AIOS weten het niet <strong>of</strong><br />

maakt het niet uit.<br />

61


62<br />

aantal aios (n=28)<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Mening over toetsen<br />

ja nee geen mening<br />

betere voorbereiding door<br />

toetsvragen<br />

nuttig om st<strong>of</strong> te toetsen<br />

23/28 (82%) vindt dat de toetsvragen er voor zorgen dat zij zich beter op de onderwijsdag<br />

voorbereiden. 4/28 (14%) vindt dit niet. En 1/28 (4%) heeft hier geen mening over.<br />

24/28 (86%) vindt het nuttig dat er voorafga<strong>and</strong> aan de onderwijsdag getoetst wordt. 3/28 (11%)<br />

vindt dit niet. 1/28 (3%) heeft geen mening.<br />

Bespreking<br />

Voorbereiding<br />

Gemiddeld vulden 28 AIOS de enquête in. Een kleine 50% van deAIOS besteedde een uur aan de<br />

voorbereiding van de ma<strong>and</strong>elijkse onderwijsdag. Maximaal werd er 8 uur besteed aan deze<br />

voorbereiding. Ter voorbereiding maakt 72% van de AIOS gebruik van het boek van Nelson, de<br />

helft van deze AIOS gebruikt de laatste druk. Niem<strong>and</strong> heeft gebruik gemaakt van het boek<br />

Kindertraumatologie van Kramer.<br />

Concluderend wordt er weinig tijd gestoken in de voorbereiding van de onderwijsdag en wordt er<br />

ter voorbereiding voornamelijk gebruik gemaakt van het boek van Nelson.<br />

Toetsing<br />

Ruim 70% vindt dat de toetsvragen de interactie met de sprekers niet bevordert. Een kleine 30%<br />

vindt dat de toetsvragen niet overeenkomen met de opgegeven literatuur, terwijl een ruime 20%<br />

dit wel vindt. De <strong>and</strong>ere helft heeft hier geen duidelijke mening over.<br />

Ruim 80% vindt dat de toetsvragen er voor zorgen dat zij dit beter op de onderwijsdag<br />

voorbereiden en hetzelfde percentage vindt dat het nuttig is om voorafga<strong>and</strong> aan de onderwijsdag<br />

te toetsen.<br />

Concluderend, zorgen de toetsvragen er voor dat de onderwijsdag beter wordt voorbereid en<br />

vinden de AIOS het maken van de toetsvragen nuttig. Echter, de toetsvragen bevorderen de<br />

interactie met de sprekers niet en de overeenkomst met de opgegeven literatuur is niet duidelijk.


Bijlage 6 Stappenplan implementatie computer based<br />

assessment<br />

Computer-based assessment in het Medisch Onderwijs; een h<strong>and</strong>leiding voor<br />

implementatie van een digitale toets in een outcome based curriculum<br />

Elize Berg<br />

Inleiding<br />

Computers worden al sinds de jaren ’60 gebruikt bij het afnemen van toetsen. In eerste instantie<br />

bleken zij met name bruikbaar als hulpmiddel bij het formatief toetsen, maar de laatste jaren<br />

wordt internationaal in toenemende mate gebruik gemaakt van computers bij het summatief<br />

toetsen.1 Een voorbeeld hiervan is het <strong>of</strong>ficiële artsexamen van de Verenigde Staten dat<br />

tegenwoordig als online digitale toets wordt afgenomen (www.usmle.com).<br />

In Nederl<strong>and</strong> wordt op medische faculteiten echter nog weinig gebruik gemaakt van computers bij<br />

het testen van vaardigheden en kennis, terwijl uit recente literatuur niet alleen blijkt dat computer-<br />

based assessment (CBA) even adequaat toetst als toetsen met pen op papier 2 3 , maar ook dat<br />

studenten een CBA meer waarderen dan een traditionele toetsvorm. 4 Deze gegevens in<br />

combinatie met de positie die de computer in het dagelijkse leven van de huidige student inneemt,<br />

doen afvragen waarom de opleidingsbrede implementatie van het CBA in de verschillende medische<br />

curricula tot op heden op zich heeft laten wachten.<br />

Het antwoord op deze vraag is niet eenduidig, maar laat zich deels raden uit het antwoord op de<br />

vraag hoe een digitale toets gemaakt en geïmplementeerd moet worden. Mogelijk bestaat er een<br />

lacune in de kennis en vaardigheden van examinatoren en coördinatoren met betrekking tot de<br />

huidige mogelijkheden op dit gebied. Mogelijkheden die natuurlijk per onderwijsinstelling<br />

verschillen en deels afhankelijk zijn van de beschikbaarheid van hardware en s<strong>of</strong>tware. Dat de<br />

praktische procedure voor het implementeren van een CBA per instelling verschilt wil echter niet<br />

zeggen dat er geen algemene richtlijn <strong>of</strong> h<strong>and</strong>leiding ontwikkeld kan worden.<br />

Dit artikel hoopt te voorzien in dergelijke algemene h<strong>and</strong>leiding voor examinatoren en<br />

coördinatoren die hun huidige toets met pen op papier om willen vormen naar een CBA,<br />

onafhankelijk van de mogelijkheden die de verschillende faculteiten hebben op het gebied van ICT<br />

en toetsprogramma’s.<br />

Wat is een computer-based assessment (CBA)?<br />

Een computer-based assessment is een toets die wordt afgenomen met behulp van de computer.<br />

Waar de computer tot op heden vooral werd ingezet bij de analyse en beoordeling van toetsen<br />

middels voorbedrukte antwoordformulieren, wordt deze bij een CBA daadwerkelijk gebruikt als<br />

toetsmiddel; studenten maken de toets achter de computer.<br />

Afhankelijk van het type toetsing (formatief <strong>of</strong> summatief) wordt respectievelijk gebruik gemaakt<br />

van feedback naar aanleiding van de gegeven antwoorden zodat studenten kunnen oefenen met de<br />

st<strong>of</strong>, <strong>of</strong> wordt de feedback achterwege gelaten en een zak-slaag beslissing verbonden aan het<br />

resultaat van de toets.<br />

63


De s<strong>of</strong>tware<br />

De feitelijke invulling en lay-out van een CBA is afhankelijk van het toetsprogramma dat wordt<br />

gebruikt. Tegenwoordig zijn de meeste toetsprogramma’s vanuit een centrale server via een<br />

internet- <strong>of</strong> netwerkverbinding op elke aangesloten computer te benaderen. Bij de keuze voor een<br />

bepaald toetsprogramma moet onder <strong>and</strong>ere gelet worden op de type vraagstellingen die het<br />

programma invulling kan geven; alleen multiple-choice vragen <strong>of</strong> ook open vragen en bijvoorbeeld<br />

key-feature vragen. Inhoudelijk hebben de meeste toetsprogramma’s gemeen dat voor het<br />

samenstellen van de toets gebruik gemaakt wordt van een itemdatabase; een gestructureerd<br />

best<strong>and</strong> van vragen.<br />

Een outcome based curriculum leent zich bij uitstek voor het gebruik van dergelijke itemdatabase<br />

omdat gewerkt wordt met eindtermen die eenvoudig hiërarchisch gestructureerd kunnen worden<br />

(figuur 1). De toetsvragen kunnen aan deze eindtermen worden gekoppeld waardoor zij<br />

gemakkelijk terug te vinden zijn.<br />

Een onderwijsblok Chirurgie zou bijvoorbeeld in de verschillende ho<strong>of</strong>dthema’s ‘Ziektebeelden’,<br />

‘Anatomie’, ‘ATLS’ en ‘Medicatie’ kunnen worden opgesplitst. Elk ho<strong>of</strong>dthema heeft vervolgens een<br />

eigen boomstructuur welke leidt naar de specifieke eindtermen binnen dit thema.<br />

64<br />

- Onderwijsblok (Chirurgie) ><br />

o Ho<strong>of</strong>dthema (Ziektebeelden) ><br />

Figuur 1. De op eindtermen gebaseerde hiërarchische structuur van een itemdatabase.<br />

Stappenplan<br />

Implementatie van een valide en betrouwbaar CBA is afhankelijk van een aantal factoren. Voor de<br />

introductie van het CBA is niet alleen de vakinhoudelijke kennis van docenten essentieel, ook dient<br />

de nodige expertise op het gebied van ICT aanwezig te zijn. Smart et al. ontwikkelden een<br />

vragenlijst die zou kunnen helpen bij het ontwikkelen en toepassen van een CBA. 5 Deze vragenlijst<br />

is op basis van ervaringen binnen het UMC Utrecht aangevuld waar nodig en omgezet in een<br />

duidelijke, stapsgewijze h<strong>and</strong>leiding voor implementatie van een CBA in een outcome based<br />

curriculum zoals dat van het UMC Utrecht. In figuur 2 wordt een samenvatting van de hieronder<br />

beschreven h<strong>and</strong>leiding weergegeven.<br />

Onderwerp (Galblaas en galwegen) ><br />

• Deelonderwerp (Cholelithiasis) > toetsvraag<br />

Stap 1. Vaststellen dat toepassing van het CBA meerwaarde geeft aan de toetsing.<br />

Er zijn verschillende redenen te bedenken die aanleiding kunnen geven tot het overgaan van een<br />

toets met pen op papier op een CBA. Zo zou de coördinator van een willekeurig onderwijsblok dat<br />

in een collegejaar meerdere keren achtereenvolgens wordt gegeven, maar weinig frequent en in<br />

grote cohorten moet worden getoetst, misschien de toetsfrequentie op willen voeren, liever toetsen<br />

in de kleine groepen waarin ook het onderwijs wordt gegeven <strong>of</strong> sneller de uitslag willen weten na<br />

afname van de toets om zo de doorstroom van studenten te kunnen bevorderen.<br />

Een <strong>and</strong>ere reden kan zijn dat de huidige toets niet aan gestelde kwaliteitseisen voldoet <strong>of</strong> niet<br />

goed genoeg geëvalueerd kan worden. Omzetting naar een CBA kan dan aanleiding geven om


kritisch naar de huidige toetsing te kijken en deze zo nodig te saneren van elementen die de<br />

kwaliteit niet ten goede komen.<br />

Met een CBA kan de toets eenvoudig worden gegenereerd uit een itemdatabase en hoog frequent<br />

worden afgenomen, mits de benodigde ICT faciliteiten (computers en s<strong>of</strong>tware) aanwezig zijn.<br />

Huidige toetsprogramma’s bieden daarnaast de mogelijkheid de toetsresultaten grondig te<br />

analyseren en zij voeren deze analyse vrijwel direct na afnemen van de toets uit waardoor de<br />

resultaten direct beschikbaar zijn.<br />

Als deze eerste stap is gezet kan toegewerkt gaan worden naar de realisatie van het CBA. Het is<br />

daarbij praktisch met enkele enthousiastelingen een werkgroep te vormen die zich bezig gaat<br />

houden met de ontwikkeling van het CBA en die tevens aanspreekpunt is voor betrokken docenten.<br />

Het maken van een reële tijdsplanning is in deze fase essentieel.<br />

Stap 2. Vaststellen wat getoetst moet worden.<br />

De feitelijke inhoud van toetsing is afhankelijk van het soort onderwijs, het doel van de toetsing en<br />

het type toetsing. Vaardigheidsonderwijs moet op een <strong>and</strong>ere manier getoetst worden dan<br />

blokonderwijs 6 7 8 , formatieve toetsing heeft door de mogelijkheid van feedback een totaal <strong>and</strong>ere<br />

invulling dan summatieve toetsing en toetsen met behulp van multiple-choice vragen behoeft een<br />

heel <strong>and</strong>ere organisatie en geeft een <strong>and</strong>ere resultaat dan toetsen met open vragen. 9<br />

Stap 3. Verkennen van de mogelijkheden van de onderwijsinstelling.<br />

Als men het over de inhoudelijke vorm eens is, moet geïnventariseerd worden wat de<br />

mogelijkheden zijn binnen de onderwijsinstelling waar men werkzaam is. In principe bestaan er<br />

dan twee opties;<br />

1) er is een digitaal toetsprogramma beschikbaar via de onderwijsinstelling, 2) er is (nog) geen<br />

toetsprogramma beschikbaar.<br />

De eerste optie biedt de mogelijkheid gebruik te maken van het beschikbare toetsprogramma en<br />

de ervaringsdeskundigen die er binnen de onderwijsinstelling inmiddels zijn. Zo kan men instructie<br />

vragen over het gebruik van het programma en eventueel overgaan tot installatie op de eigen<br />

computer. Vragen over kosten en betrouwbaarheid zijn in deze situatie snel beantwoord,<br />

afhankelijk van de inmiddels opgedane ervaring.<br />

De tweede optie betekent een grotere tijdsinvestering, daar nu eerst de mogelijkheden tot<br />

aanschaf van een programma moeten worden verkend <strong>of</strong>, als dat geen optie is, er gekeken moet<br />

worden <strong>of</strong> zelf in samenwerking met ICT medewerkers van de instelling een programma gemaakt<br />

kan worden.<br />

In het UMC Utrecht wordt op dit moment het resultaat van beide opties naar tevredenheid<br />

gebruikt, zij het dat de implementatie van het zelf geschreven programma aanzienlijk meer tijd<br />

heeft gekost en dat de mogelijkheden van dit programma beperkter zijn dan die van het<br />

aangeschafte programma.<br />

Zonder toereikende computerfaciliteiten geen CBA. Voordat een programma wordt gemaakt <strong>of</strong><br />

aangeschaft moet een schatting gemaakt worden van de beschikbaarheid van het benodigde aantal<br />

computers en de aanwezigheid van geschikte onderwijsruimten (o.a. internetverbinding).<br />

65


Stap 4. Het maken van de toets.<br />

Het feitelijk samenstellen van de toets met behulp van een toetsprogramma is, mits een goede<br />

structuur in de itemdatabase is aangelegd, een routinematig proces dat naarmate men meer<br />

ervaring krijgt met het programma, minder tijdsintensief zal blijken.<br />

Bij het samenstellen van de eerste toets zal een toetsmatrijs moeten worden bedacht en opgesteld<br />

als deze nog niet beschikbaar is. Daarbij kan op basis van leerdoelen en eindtermen worden<br />

bepaald over welke onderwerpen toetsvragen relevant zijn en welk type vraagstelling het meest<br />

7 9<br />

geschikt is voor de toetsing van de leerdoelen.<br />

Een groot voordeel van toetsing via het CBA is dat relevante foto’s, röntgenopnamen <strong>of</strong><br />

bijvoorbeeld labuitslagen kunnen worden toegevoegd aan een vraag. Daarmee worden de vragen<br />

niet alleen aantrekkelijker voor studenten, maar kunnen zij ook gerichter worden gesteld.<br />

Besta<strong>and</strong>e vragen kunnen vervolgens vaak eenvoudig worden ingevoerd in een toetsprogramma.<br />

Echter, als men met het invoeren van het CBA ook een kwaliteitsverbetering beoogt, dan is de<br />

beoordeling van besta<strong>and</strong>e vragen op validiteit en betrouwbaarheid met behulp van bijvoorbeeld de<br />

alfa-waarde en Rit-waarde essentieel voordat zij worden geïmplementeerd in de itemdatabase. 9<br />

Het aantal benodigde vragen is afhankelijk van de frequentie waarop getoetst wordt en het aantal<br />

vragen per toets. Een toets van 50 vragen die 10 keer per jaar wordt afgenomen heeft idealiter<br />

een itemdatabase met 500 vragen. Dit is nodig om een goede r<strong>and</strong>omisatie te kunnen gar<strong>and</strong>eren<br />

en daarmee de veiligheid van de toets met betrekking tot frauderen door studenten te waarborgen.<br />

Indien de vragen geformuleerd zijn kunnen zij in het toetsprogramma worden gekoppeld aan de<br />

(deel)onderwerpen in de itemdatabase zoals hierboven is beschreven in het ho<strong>of</strong>dstuk over<br />

s<strong>of</strong>tware.<br />

Deze koppeling maakt het samenstellen van de toets eenvoudig, al is de precieze methode<br />

natuurlijk afhankelijk van het toetsprogramma dat wordt gebruikt. Een coördinator <strong>of</strong> examinator<br />

hoeft alleen aan te geven hoeveel vragen van welk onderwerp er in de toets moeten komen,<br />

waarop het programma zelf de vragen selecteert per deelonderwerp en deze r<strong>and</strong>omiseert per<br />

student. Het r<strong>and</strong>omiseren betekent dat zowel de volgorde van vragen als die van de mogelijke<br />

antwoorden per vraag verschillend zijn voor elke student die de toets maakt. Daardoor maakt elke<br />

student een uniek samengestelde toets, maar beantwoordt het hele cohort wel dezelfde vragen en<br />

kunnen studenten vrijwel niet frauderen tijdens het maken van de toets.<br />

Stap 5. Het testen van de toets.<br />

Studenten staan positief tegenover het gebruik van computers bij het afnemen van toetsen en<br />

waarderen een CBA meer dan het traditionele tentamen dat met pen en papier moet worden<br />

gemaakt. 4 Mits er een duidelijke h<strong>and</strong>leiding wordt verstrekt en uitleg wordt gegeven over het<br />

juist gebruiken van het toetsprogramma, is het CBA in de ogen van studenten tevens<br />

gebruiksvriendelijk. Als voor het eerst een CBA wordt afgenomen kan het lonen de toets op<br />

gebruiksvriendelijkheid te laten testen door zowel studenten als docenten. Daarmee kan tevens<br />

een inschatting worden gemaakt van de compatibiliteit van het CBA met de computervaardigheden<br />

van studenten (en docenten).<br />

66


Stap 6. Beoordeling van de toets vaststellen.<br />

Nadat de toetsmatrijs is gevormd, de toets op basis van de itemdatabase is samengesteld en deze<br />

op gebruiksvriendelijkheid is getest kan worden nagedacht over de beoordeling van de toets. Het<br />

scoresysteem dat beoordeling mogelijk maakt zit in moderne toetsprogramma’s ingebouwd in de<br />

s<strong>of</strong>tware; aan elke vraag kan een willekeurige weegfactor worden toegekend waarmee de<br />

computer het resultaat per student kan berekenen op basis van diens antwoorden. De gokkans<br />

wordt vanzelfsprekend meegenomen in deze berekening.<br />

Als het scoresysteem is vastgelegd kan met behulp van een testversie van de toets die wordt<br />

afgenomen bij docenten een idee worden verkregen van de validiteit en betrouwbaarheid van de<br />

toets.<br />

Stap 7. Toetsevaluatiemethode bepalen.<br />

De mogelijkheden op dit gebied zijn afhankelijk van het toetsprogramma waarmee gewerkt wordt.<br />

Op het gebied van toetsevaluatie kan CBA meerwaarde bieden ten opzichte van toetsen met pen<br />

op papier, omdat niet alleen een uitgebreide vragenanalyse direct na afname van de toets<br />

beschikbaar is, maar ook toetsen onderling en resultaten van verschillende cohorten geanalyseerd<br />

kunnen worden.<br />

Stap 8. Implementatie in het curriculum.<br />

Eenmaal zover gekomen is de implementatie van het CBA een kwestie van formaliteiten. Om zeker<br />

te zijn van een valide en betrouwbare toetsing dienen studenten de mogelijkheid te krijgen een <strong>of</strong><br />

enkele keren met de nieuwe methode van toetsing te oefenen zodat hun prestaties ten tijde van de<br />

toets niet negatief beïnvloed worden door onwennigheid. Vervolgens moet een moment worden<br />

vastgesteld waarop het eerste cohort getoetst gaat worden met behulp van het CBA.<br />

Een a<strong>and</strong>achtspunt bij de daadwerkelijke afname van het CBA is de veiligheid van de toetsing.<br />

Hierbij moet niet alleen gedacht worden aan betrouwbare computers die de s<strong>of</strong>tware aankunnen en<br />

die zijn aangesloten op een beveiligd netwerk, ook moet zoveel mogelijk voorkomen worden dat de<br />

inhoud van de toetsen wordt gekopieerd door <strong>of</strong> uitlekt naar studenten. Kennis en kunde van ICT<br />

medewerkers op het gebied van beveiliging is hierbij essentieel, evenals de aanwezigheid van<br />

surveillanten tijdens het afnemen van de toets ter controle van de identiteit van de deelnemers en<br />

het eerlijk verlopen van de toetsing.<br />

Stap 9. Evaluatie.<br />

De kwaliteit van toetsing kan alleen worden gewaarborgd als de toets en haar analyse regelmatig<br />

kritisch tegen het licht worden gehouden. Evaluatieresultaten van de toets als geheel (coefficiënt<br />

alfa) en de vragen zelf (P’, Rir-waarde) geven een indruk van de validiteit en betrouwbaarheid van<br />

de toets en haar onderdelen. Op basis van deze resultaten en met behulp van de ervaringen van<br />

studenten en docenten kan de toets indien nodig steeds weer worden aangepast en verbeterd.<br />

Stap 10. Up-to-date houden van de itemdatabase.<br />

Voortvloeiend uit de vorige stap, is het up-to-date houden van de itemdatabase gebaseerd op het<br />

adequaat analyseren van gebruikte vragen. Indien nodig kunnen vragen worden aangepast <strong>of</strong><br />

67


vervangen door nieuwe vragen als de analyse daartoe aanleiding geeft. Ook moet worden<br />

gecontroleerd <strong>of</strong> de vragen adequaat aansluiten bij de leerdoelen en moeten zij als de leerdoelen<br />

wijzigen hierop worden aangepast.<br />

Figuur 2. H<strong>and</strong>leiding bij de implementatie van een CBA in een outcome based curriculum.<br />

Stap 1:<br />

Stap 2:<br />

Stap 3:<br />

Stap 4:<br />

Stap 5:<br />

Stap 6:<br />

Stap 7:<br />

Stap 8:<br />

68<br />

CBA heeft meerwaarde:<br />

1. Enthousiasmeren betrokken docenten en opleiders<br />

2. Werkgroep vormen<br />

3. Tijdsplanning<br />

Vaststellen wat getoetst moet worden:<br />

1. Soort onderwijs<br />

2. Doel toetsing<br />

3. Type toetsing<br />

Verkennen van de mogelijkheden onderwijsinstelling:<br />

1. Digitaal toetsprogramma beschikbaar?<br />

- JA: instructie en installatie programma, contact<br />

opnemen met ervaringsdeskundigen<br />

- NEE: oriënteren aanschaf toetsprogramma <strong>of</strong> zelf een<br />

programma schrijven mbv ICT medewerkers<br />

2. Faciliteiten onderzoeken: computers (aantal toereikend,<br />

betrouwbaarheid, toetsruimten, veiligheid)<br />

Maken van de toets:<br />

1. Bepalen type vraagstelling(en)<br />

2. Besta<strong>and</strong>e vragen evalueren (validiteit en betrouwbaarheid)<br />

3. Opzetten itemdatabase o.b.v. leerdoelen en eindtermen<br />

4.Vragen koppelen aan itemdatabase<br />

5. Aantal vragen per toets bepalen<br />

6. Toets samenstellen in programma<br />

Testen van de toets:<br />

1. Gebruiksvriendelijkheid studenten en docenten<br />

2. Compatibiliteit met computervaardigheden<br />

3. Validiteit en betrouwbaarheid<br />

Beoordeling vaststellen:<br />

1. Scoresysteem ontwikkelen<br />

Toetsevaluatiemethode vaststellen(afhankelijk programma)<br />

Implementatie in het curriculum:<br />

1. Oefenmogelijkheid bieden aan studenten<br />

2. Moment eerste CBA vaststellen<br />

3. Beveiliging en surveillance<br />

Evaluatie:<br />

1. Ervaringen studenten en docenten<br />

2. Evaluatieresultaten vragen/toets (validiteit&betrouwbaarheid)


Stap 9:<br />

Stap 10:<br />

Referenties<br />

1) Cantillon P, Irish B, Sales D. ABC <strong>of</strong> learning <strong>and</strong> teaching: Using computers for assessment<br />

in medicine. BMJ vol. 329, September 2004: 606-609.<br />

2) Russell M, Haney W. <strong>Testing</strong> writing on computers: an experiment comparing student<br />

performance on tests conducted via computer <strong>and</strong> via paper-<strong>and</strong> pencil. Education Policy<br />

Analysis Archives 1997; 5(3).<br />

3) Wolfson PJ, Velosky JJ, Robeson MR Maxwell KS. Administration <strong>of</strong> open-ended test<br />

questions by computer in a clerkship final examination. Acad Med 2001 Vol. 76: 835-839.<br />

4) Ogilvie RW, Trusk TC, Blue AV. Students attitudes towards computer testing in a basic<br />

science course. Med Educ 1999 Vol. 33; 828-831.<br />

5) Smart C. Computer based assessment guide; Questions to guide the introduction <strong>of</strong><br />

computer based testing. (www.is.bangor.ac.uk)<br />

6) Smee S. ABC <strong>of</strong> learning <strong>and</strong> teaching: Skill based assessment. BMJ Vol. 326, March 2003:<br />

703-706.<br />

Up-to-date houden van itemdatabase:<br />

1. Vragen aanpassen/vervangen o.b.v. analyseresultaten<br />

7) Lambert WT Schuwirth, Cees PM van der Vleuten. ABC <strong>of</strong> learning <strong>and</strong> teaching: Written<br />

assessment. BMJ Vol. 326 March 2003: 643-645.<br />

8) Devitt P, Palmer E. Computers in medical education 3: a possible tool for the assessment <strong>of</strong><br />

clinical competence? Austr.N.Z.J.Surg. 1998 vol. 68: 602-604.<br />

9) Jaap Milius. Schriftelijk tentamineren. Een draaiboek voor docenten in het hoger onderwijs.<br />

2007 IVLOS, Universiteit Utrecht.<br />

Met dank aan S. Verdoes, ICT medewerker directie Onderwijs en Opleidingen van de Faculteit<br />

Geneeskunde (UMC Utrecht) en dr. Y. van der Drift, KNO-arts UMC Utrecht.<br />

69


Bijlage 7 Materialen TestVision<br />

Er is een uitgebreide Gebruikersh<strong>and</strong>leiding beschikbaar bij Teelen Kennismanagement in Wilp. Zie<br />

www.teelen.nl<br />

70

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!