Prove INVALSI <strong>2013</strong> I grafici riportati nelle figure 5.1-5.10 mostrano come la maggior parte degli allievi si collochi, come prevedibile, ai livelli intermedi della scala di difficoltà/abilità, ma anche come, sebbene in minoranza, siano presenti allievi che si situano sia ai livelli più bassi sia ai livelli più alti della scala. Una prova standardizzata, finalizzata alla misurazione degli apprendimenti a livello di sistema, deve, infatti, come già accennato, essere in grado di coprire, nel modo più completo possibile, l’intera scala di difficoltà, in modo tale da fornire informazioni sia sugli studenti meno o mediamente abili, sia su quelli più abili. Se si osservano in sequenza le figure 5.1-5.10 si può notare, come già detto in precedenza, che l’articolazione della difficoltà delle prove è diversa nei diversi livelli di scolarità, così da rispondere a quanto suggerito dalla letteratura specifica nel campo della costruzione delle prove standardizzate, ossia l’attenzione a costruire prove adatte all’età degli alunni, non solo in termini di contenuti ma anche in termini di difficoltà. 73
Prove INVALSI <strong>2013</strong> Riferimenti bibliografici - Baker, F.B. (2001), The Basics of Item Response Theory, ERIC Clearinghouse on Assessment and Evaluation. - Baker, F.B., Kim S., (2004), Item Response Theory. Parameter Estimation Techniques, New York, Marcel Dekker. - Barbaranelli, C. & Natali, E. (2005). I test psicologici: teorie e modelli psicometrici. Roma: Carrocci Editore. - Boomsma, A., van Duijn M.A.J, Snijders, T.A.B.(1991), Essays on Item Response Theory, New York, Springer. - Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297-334. - Falocci N., Gnaldi, M., Matteucci, M. & Mignani, S. (2010). La validazione statistica di test standardizzati di profitto: principali aspetti di metodo e due casi di studio sulla valutazione degli apprendimenti nella scuola primaria. Collana Working Paper INVALSI, 9. http://www.invalsi.it/download/wp/wp09_Falocci.pdf - Fischer, G.H., Molenaar, I.W.(1995), Rasch Models: Foundation, Recent Developments, and Application, New York, Springer. - Haladyna, T. M. (1994), Developing and validating multiple-choice test items, Hillsdale, N.J: L. Erlbaum Associates. - Hambleton, R.K., Swaminathan, H., Rogers, H.J.(1991), Fundamentals of Item Response Theory, Newnury Park, CA, Sage. - Hambleton, R.K., Swaminathan,H., Rogers, H.J., (1991), Fundamentals of Item Response Theory, Sage. - INVALSI (2011a). Quadro di riferimento di Italiano. (http://www.invalsi.it/snv1011/) - INVALSI (2011b). Quadro di riferimento di Matematica. (http://www.invalsi.it/snv1011/) - Mullis, I.V.S., Martin, M.O., Ruddock, G.J., O’Sullivan, C.Y., Arora, A., & Erberber, E. (2005). - OCSE (2007). Valutare le competenze in scienze, lettura e matematica. Roma: Armando Editore. - OECD, (2009), PISA 2006 Technical Report, Parigi, OECD. - Osterlind, S. J. (1983), Test item bias, Beverly Hills, Sage Publications. - Osterlind, S. J. (1998), Constructing test items: Multiple-choice, constructed-response, performance, and other formats, Boston, Kluwer Academic Publishers. - TIMSS 2007 assessment frameworks. Chestnut Hill, MA: TIMSS & PIRLS International Study Center, Boston College. 74