26.01.2015 Views

L'analyse factorielle confirmatoire.

L'analyse factorielle confirmatoire.

L'analyse factorielle confirmatoire.

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong>.<br />

Objectifs de la section<br />

Au terme de cette section vous serez en mesure :<br />

De faire la distinction entre une analyse <strong>factorielle</strong> exploratoire et une analyse<br />

<strong>factorielle</strong> <strong>confirmatoire</strong><br />

De faire la distinction entre variables observées ou manifestes et variables<br />

latentes (exogènes et endogènes)<br />

De spécifier un modèle de mesure et d’en faire une représentation visuelle<br />

D’effectuer une analyse <strong>factorielle</strong> <strong>confirmatoire</strong> sur LISREL<br />

De vous appuyer sur des indices reconnus pour juger de la valeur du modèle<br />

théorique mis à l’épreuve<br />

Introduction<br />

L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> (AFC) est une technique statistique qui se situe<br />

évidemment dans le prolongement de l’analyse <strong>factorielle</strong> exploratoire dont nous avons<br />

traitée dans une section précédente. En ce sens, les deux techniques partagent<br />

certaines ressemblances : elles s’intéressent toutes deux à la structure latente d’un<br />

ensemble de données complexes et permettent d’expliquer les corrélations observées<br />

entre des variables à l’aide d’un nombre réduit de variables latentes, communément<br />

appelées « facteurs ». Dans les deux cas on peut ajouter que la mise en évidence des<br />

facteurs latents constitue aussi une forme de réduction des données. Cependant,<br />

comme son nom le laisse clairement sous-entendre, l’analyse <strong>confirmatoire</strong> se situe à<br />

une étape beaucoup plus avancée dans la démarche de recherche que l’analyse<br />

exploratoire.<br />

L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> permet de mettre à l’épreuve des hypothèses<br />

spécifiques concernant l’influence des variables latentes sur les données recueillies;<br />

elle permet donc de tester un modèle théorique. En comparaison, l’analyse <strong>factorielle</strong><br />

exploratoire est plutôt une procédure servant à faire émerger une théorie sans qu’il soit<br />

vraiment possible de la mettre à l’épreuve de façon convaincante. Un chercheur qui<br />

utiliserait l’analyse exploratoire pourrait facilement découvrir des dimensions<br />

insoupçonnées dans ses données et réussir à les interpréter a posteriori dans un<br />

contexte théorique défendable. Le fait que les facteurs obtenus soient<br />

« interprétables après coup » recèle une valeur théorique indéniable, mais cela ne<br />

constitue pas pour autant un test formel d’une quelconque théorie.<br />

Par opposition, en analyse <strong>factorielle</strong> <strong>confirmatoire</strong> tout doit s’élaborer à partir d’une<br />

théorie explicite. Le chercheur doit formuler a priori un ensemble d’hypothèses<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 1 9 janvier, 2006


concernant les données qu’il s’apprête à analyser ou à recueillir. Il doit identifier à<br />

l’avance les variables latentes (les facteurs) faisant partie du modèle théorique qu’il veut<br />

mettre à l’épreuve et il doit sélectionner en conséquence les variables observées qu’il<br />

utilisera comme reflets de l’influence des variables latentes. Nous verrons plus loin,<br />

que lorsqu’une analyse <strong>confirmatoire</strong> ne concorde pas parfaitement avec la théorie<br />

mise à l’épreuve, tout n’est pas perdu. Le chercheur pourra s’appuyer sur les résultats<br />

obtenus pour modifier sa propre position théorique, mais on conviendra qu’avec ce<br />

changement de perspective, il est maintenant passé en phase d’exploration et il ne peut<br />

plus prétendre à la confirmation son modèle.<br />

La puissance de l’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> vient à un prix. En effet cette<br />

technique n’est pas directement disponible dans la version SPSS 12.0 pour Windows<br />

que nous utilisons dans le cadre de ce cours, bien que par ailleurs la compagnie SPSS<br />

mette en marché le logiciel AMOS 5.0 consacré à ce type d’analyse. Il vous faudra<br />

donc vous familiariser avec LISREL, un autre logiciel spécialisé dans l’analyse des<br />

structures de covariance dont fait partie l’analyse <strong>confirmatoire</strong>.<br />

LISREL est le produit vedette commercialisé par Scientific Software International.<br />

Une section de leur site web (http://www.ssicentral.com/) est d'ailleurs consacrée à la<br />

dernière version de ce produit, soit LISREL 8.7. Ce logiciel est passablement<br />

dispendieux, mais ceux qui aimeraient se familiariser avec le produit peuvent le faire en<br />

téléchargeant une version étudiante gratuite à l’adresse suivante :<br />

http://www.ssicentral.com/lisrel/student.html. Une fois installée cette version allégée<br />

vous permettra d'explorer toutes les facettes de LISREL, mais ne fonctionnera qu'avec<br />

des modèles relativement simples ne comportant pas plus de 20 variables observées.<br />

Je vous encourage fortement à télécharger ce produit et à l’utiliser pour les prochains<br />

exercices. C’est la même version limitée qui devrait être accessible sur les postes de<br />

travail des salles publiques.<br />

La popularité des modèles LISREL est remarquable. Si vous avez l'habitude de<br />

fouiller régulièrement la documentation scientifique dans l'un ou l'autre des champs de<br />

la psychologie, vous avez sûrement noté l'apparition de ces attrayants schémas<br />

composés de cercles et rectangles reliés les uns aux autres par des flèches uni- ou<br />

bidirectionnelles. Il y a de fortes chances que ces analyses aient été produites à l'aide<br />

de LISREL ou d'un autre programme du même type. Curieusement, il semble que ces<br />

techniques soient réservées à quelques initiés plus hardis qui n'ont pas trop peur des<br />

statistiques avancées. Un grand nombre de chercheurs dont la formation remonte à<br />

plus d’une dizaine d’années n'ont pas encore fait le saut et se demandent quand et<br />

comment ils pourront bien se mettre à la page. D'ailleurs, dans une enquête menée<br />

pour le compte de l'American Psychological Association (APA), il a été démontré que la<br />

très grande majorité des programmes de doctorat en psychologie n'avaient pas encore<br />

introduit ces techniques dans leur curriculum au début des années 90 (Aiken et al.,<br />

1990).<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 2 9 janvier, 2006


Quelques exemples réels d’application<br />

Dans le but de bien saisir le contexte d’application de l’analyse <strong>factorielle</strong><br />

<strong>confirmatoire</strong> nous examinerons brièvement trois exemples réels de recherches qui ont<br />

utilisé ce type d’analyse.<br />

Le premier exemple concerne le construit théorique de l’épuisement professionnel<br />

(« burnout »). Depuis bientôt deux décennies l’Inventaire d’épuisement professionnel<br />

de Maslach (Maslach & Jackson, 1986) s’est imposé comme étant l’instrument de<br />

mesure le plus populaire de ce construit. L’inventaire développé par Maslach reflète<br />

une conception tridimensionnelle de l’épuisement où interagissent l’épuisement<br />

émotionnel, la dépersonnalisation et l’affaiblissement du sentiment d’accomplissement<br />

personnel. Au cours des dernières années, plusieurs désaccords se sont manifestés à<br />

propos des relations existant entre ces trois dimensions de l’épuisement. Yadama et<br />

Drake (1995) se sont donné comme objectif de démontrer la validité de la théorie de<br />

Maslach par le biais d’une analyse <strong>confirmatoire</strong>. Ils ont procédé à l’analyse des<br />

réponses de 176 travailleurs sociaux à l’Inventaire d’épuisement professionnel de<br />

Maslach constitué de 22 items. Leur hypothèse était à l’effet que l’inventaire mesure<br />

trois dimensions inter reliées : la première, l’épuisement émotionnel, serait mesurée par<br />

les items1, 2, 3, 6, 8, 13, 14, 16 et 20; la dépersonnalisation quant à elle serait mesurée<br />

par les items 5, 10, 11, 15 et 22; enfin, le sentiment d’accomplissement personnel serait<br />

évalué par les items 4, 7, 9, 12, 17, 18, 19 et 21. Les résultats de l’analyse<br />

<strong>confirmatoire</strong> n’ont pas permis d’appuyer le modèle théorique proposé; en effet, autant<br />

le χ 2 de 507.84, p


peut devenir extrêmement périlleuse et même impraticable lorsque le nombre d’items<br />

est trop considérable. Bagozzi et Heatherton (1994) vont même jusqu’à suggérer de ne<br />

pas procéder à l’analyse <strong>confirmatoire</strong> au niveau des items individuels d’un<br />

questionnaire, mais plutôt de créer deux ou trois scores composites en faisant la<br />

sommation de groupuscules d’items pour chaque construit participant à l’analyse. Dans<br />

l’exemple qui suit, nous verrons que l’analyse <strong>confirmatoire</strong> peut aussi servir à<br />

démontrer la validité convergente de deux instruments d’un même construit théorique.<br />

Hertzog, Hultsch et Dixon (1989) se sont intéressés au phénomène de la<br />

métamémoire, c’est-à-dire cet ensemble de croyances et de connaissances que nous<br />

entretenons tous à propos du fonctionnement de notre mémoire. Ces auteurs<br />

soulignent le nombre impressionnant de questionnaires mis au point pour évaluer ce<br />

construit théorique. En particulier deux instruments semblent avoir la faveur des<br />

chercheurs : le « Metamemory in Adulthood Questionnaire (MIA) » et le « Memory<br />

Functioning Questionnaire (MFQ).» Hertzog et al. (1989) ont voulu examiner la validité<br />

convergente de ces deux instruments, c’est-à-dire de démontrer que les échelles des<br />

deux instruments mesurent bien les mêmes dimensions définissant le construit de la<br />

métamémoire. Leur étude est fort complexe puisqu’elle s’est déroulée en plusieurs<br />

étapes, auprès de deux échantillons distincts, l’un canadien (N = 624), l’autre américain<br />

(N = 415). Il est impossible de présenter ici dans le détail tous leurs résultats. À titre<br />

d’illustration, on peut mentionner qu’ils ont d’abord utilisé les données de l’échantillon<br />

américain pour développer un modèle cohérent de la métamémoire; bien que le χ 2 de<br />

91.44 était significatif (p


l’unité et la diversité des fonctions exécutives impliquées dans des tâches complexes<br />

mobilisant le lobe frontal. Une controverse assez importante existe actuellement à<br />

propos de l’unicité des mécanismes responsables du bon fonctionnement dans ce type<br />

de tâche. Alors que les théories initiales semblaient attribuer une « saveur d’unicité » à<br />

ce mécanisme de gestion centrale responsable des fonctions exécutives, on retrouve<br />

maintenant plusieurs mises en doute de ce principe. Miyake et al. (2000) ont donc<br />

décidé d’étudier trois fonctions exécutives spécifiques. La première correspond à<br />

l’alternance (« shifting ») requise pour passer d’une tâche à une autre ou d’un état<br />

mental à un autre; la deuxième fonction correspond à la mise à jour (« updating ») des<br />

représentations en mémoire de travail; enfin, la troisième fonction correspond au<br />

mécanisme responsable de l’inhibition des réponses dominantes. Miyake et al. (2000)<br />

ont considéré ces fonctions (shifing, updating et inhibition) comme étant trois variables<br />

latentes. Pour chacune de ces variables latentes ils ont sélectionné trois tâches<br />

simples représentant de façon pure la fonction concernée. Ainsi, le « shifting » a été<br />

mesuré de trois façons, à l’aide de trois variables manifestes : d’abord par la tâche<br />

« addition / soustraction » où il fallait effectuer une série de calculs mentaux en<br />

alternant continuellement entre +3 et -3. La deuxième mesure du shifting correspondait<br />

à la tâche « chiffre / lettre » où une paire « chiffre / lettre » apparaissait à l’écran dans<br />

l’un ou l’autre de quatre quadrants. Lorsque le stimulus apparaissait dans les quadrants<br />

supérieurs, le participant devait indiquer si le chiffre était pair ou impair; par contre,<br />

lorsque le stimulus était présenté dans l’un ou l’autre des deux quadrants inférieurs, le<br />

participant devait dire si la lettre était une voyelle ou une consonne. Enfin, la troisième<br />

tâche était la tâche dite « locale / globale » au cours de laquelle on présentait des<br />

formes géométriques globales sur un écran (cercles, X, triangles, carré, etc.) Les<br />

contours de ces formes géométriques étaient eux-mêmes constitués de minuscules<br />

formes géométriques – cercles, X, triangles, carrés, etc. Selon que les stimuli étaient<br />

bleus ou noirs, les participants devaient dire le plus vite possible combien de lignes<br />

formaient la figure géométrique locale (lorsque bleue) ou globale (lorsque noire).<br />

Similairement, six autres tâches ont été utilisées comme variables manifestes : trois<br />

pour évaluer la fonction « updating » et trois autres pour la fonction « inhibition. »<br />

L’analyse a été faite sur les résultats de 137 participants et a consisté à mettre en<br />

comparaison deux modèles explicatifs de la performance dans les 9 tâches manifestes :<br />

un modèle à trois variables latentes et un modèle à variable latente unique. Sur la base<br />

des différents indices calculés par LISREL, les auteurs ont clairement démontré que le<br />

modèle à trois variables latentes (χ 2 = 20.29, p >.65) était mieux capable de rendre<br />

compte de la covariance observée entre les 9 mesures que le modèle à variable latente<br />

unique (χ 2 = 36.17, p >.10), la différence entre les deux modèles étant significative (χ 2 =<br />

15.88, p


latentes. Par exemple, 84.6 % de la variance du test de Stroop (.92 2 ) correspond à de<br />

la variance non associée à l’effet du facteur inhibition.<br />

Figure 3.1 Solution finale retenue par Miyake et al. (2000) (reproduit de la figure 2,<br />

page 70 de leur article).<br />

Ce troisième exemple d’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> se distingue nettement des<br />

deux exemples précédents, en ce sens qu’il va au-delà de la simple validation d’un<br />

questionnaire ou d’une combinaison de questionnaires évaluant un même construit<br />

théorique. Dans leur étude, Miyake et al. (2000) se sont appuyés sur un riche contexte<br />

théorique développé conjointement par la psychologie cognitive et la neuropsychologie<br />

clinique; ce contexte théorique leur a permis d’élaborer a priori un modèle comportant<br />

trois variables latentes. Enfin, ils ont choisi ce qui leur semblait être les meilleurs<br />

indicateurs (variables manifestes) de ces variables latentes pour être en mesure de<br />

procéder à un test formel de leur modèle. Nous sommes bien loin d’une simple<br />

analyse <strong>factorielle</strong> exploratoire où le chercheur aurait laissé les données lui indiquer la<br />

présence de facteurs qu’il aurait tenté d’interpréter a posteriori. Nous reviendrons<br />

éventuellement sur l’étude de Miyake et al. (2000) lorsque nous traiterons des analyses<br />

d’équations structurales.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 6 9 janvier, 2006


Matrices de variance-covariance et matrices de corrélation<br />

Les données d'entrées sur lesquelles portent les analyses <strong>factorielle</strong>s <strong>confirmatoire</strong>s<br />

et les autres analyses de type LISREL sont la plupart du temps des matrices de<br />

variance-covariance ou, dans certains cas, des matrices de corrélation. (Notez<br />

cependant que le logiciel LISREL s'accompagne d'un module PRELIS qui permet de<br />

travailler à partir de données brutes individuelles si on le désire et de générer les<br />

différentes matrices de covariance ou de corrélation que l'on peut ensuite soumettre à<br />

LISREL.) En psychologie, les chercheurs ont développé l’habitude de travailler surtout<br />

avec des matrices de corrélation. Ce faisant, ils mettent complètement de côté la<br />

métrique des différentes mesures qu’ils recueillent, puisqu’ils utilisent alors des<br />

variables standardisées (M = 0.0, écart-type = 1.0). Cette pratique ne prête pas<br />

tellement à conséquence parce que, le plus souvent, les variables qui intéressent les<br />

psychologues ont de toute façon des métriques arbitrairement définies. Pour vous en<br />

convaincre, essayez d’identifier l’unité de mesure appropriée pour mesurer la<br />

perception de contrôle, la créativité, l’estime de soi, etc. Aussi, il est important de<br />

constater que la corrélation que l’on observe entre deux variables dont les échelles de<br />

mesures ont été standardisées se manifeste également si l’on s’en tient aux échelles<br />

brutes (non standardisées) des mêmes variables : on parle alors du concept de<br />

covariance entre deux variables. La covariance est aux échelles brutes (préservant la<br />

métrique originale) ce que la corrélation est aux échelles standardisées.<br />

Supposons les trois variables suivantes, X, Y et Z:<br />

X Y Z<br />

Moyenne (M): 5.85 13.70 16.45<br />

Écart-type (S): 2.04 4.18 6.37<br />

Variance (S 2 ): 4.14 17.46 40.56<br />

La matrice de variance-covariance pour ces données correspond à une matrice<br />

rectangulaire où l'on retrouve les variances de chaque variable dans la diagonale et les<br />

covariances entre les paires de variables dans les autres cellules.<br />

X Y Z<br />

X 4.14 5.37 12.05<br />

Y 5.37 17.46 21.52<br />

Z 12.05 21.52 40.56<br />

Puisque la covariance entre X et Y est équivalente à la covariance entre Y et X, il y<br />

a redondance dans cette matrice rectangulaire et il est courant de présenter<br />

uniquement la portion triangulaire inférieure de la matrice de covariance; nous l'avons<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 7 9 janvier, 2006


eproduite à nouveau en présentant à sa droite la matrice de corrélation<br />

correspondante:<br />

Variance-covariance<br />

4.14<br />

5.37 17.46<br />

12.05 21.52 40.56<br />

Corrélation<br />

1.0<br />

.63 1.0<br />

.93 .81 1.0<br />

Il existe évidemment une relation directe entre la matrice de variance-covariance et<br />

la matrice de corrélation puisqu'elles représentent toutes deux les covariations entre les<br />

mêmes variables X, Y et Z. En fait, si les variables initiales sont standardisées (c.-à-d.,<br />

avec une moyenne de zéro et un écart-type de 1, comme les scores z) la covariance<br />

entre ces variables correspond alors au coefficient de corrélation avec lequel vous<br />

êtes probablement plus familier.<br />

La formule suivante illustre clairement que la covariance entre deux variables (S xy 2 )<br />

est constituée à la fois de la corrélation entre les deux mesures et du produit de leurs<br />

écarts-types.<br />

COV xy = r xy X écart-type x X écart-type y<br />

en effet,<br />

S 2 S 2 S 2<br />

xy = r xy x × y<br />

5.37 = .63 4.14 x 17.46<br />

S 2<br />

2 S 2<br />

xy = r xy S<br />

x y<br />

= .63 4.14 17.46<br />

ou<br />

ou<br />

S xy<br />

2 = r xy S<br />

x<br />

S<br />

y<br />

= .63 × 2.04 × 4. 18<br />

Réciproquement, il va de soi que la corrélation reflète à son tour la covariance entre<br />

deux variables tout en prenant en compte les variances de chacune des deux mesures.<br />

La décomposition de la formule suivante vous permet de bien saisir que vous pouvez<br />

déterminer le coefficient de corrélation entre X et Y si vous connaissez la variance de X,<br />

la variance de Y et la covariance entre X et Y.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 8 9 janvier, 2006


xy =<br />

COV xy<br />

VAR x × VAR y<br />

r xy<br />

=<br />

S 2 xy<br />

S 2 S 2 x × y<br />

en effet,<br />

. 63 =<br />

5.37<br />

4.14 x 17.46<br />

ou<br />

r xy =<br />

r xy<br />

S<br />

x<br />

=<br />

S 2 xy<br />

2<br />

S<br />

x<br />

S 2 xy<br />

×<br />

S 2 y<br />

S<br />

y<br />

ou<br />

ou<br />

=<br />

=<br />

5.37<br />

4.14 17.46<br />

5.37<br />

2.04 × 4.18<br />

Je vous invite à confirmer votre compréhension des rapports entre corrélation et<br />

covariance en vérifiant la proximité de ces mesures à l’aide du logiciel SPSS. J’ai placé<br />

deux fichiers de démonstration (srp6020_xyz.sav et srp6020_xyz.sps) sur le serveur<br />

ftp du cours. Ce sont des données inventées (n = 300) que j’ai utilisées dans les<br />

exemples précédents.<br />

Examen d'une matrice de corrélation<br />

Considérons la matrice de corrélation présentée au tableau 3.1 (données<br />

reproduites de Pedhazur, Pedhazur et Schmelkin (1991), page 593). Il s'agit des<br />

coefficients de corrélation entre six variables (Y1, Y2, Y3, X1, X2 et X3) mesurant<br />

différents aspects du concept de soi: les variables Y correspondent à des indices du soi<br />

académique, alors que les variables X sont des mesures du soi social.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 9 9 janvier, 2006


Soi<br />

académique<br />

Soi<br />

social<br />

Tableau 3.1<br />

Exemple d'une matrice de corrélation entre six indicateurs<br />

du concept de soi. N = 200.<br />

Y1<br />

Y2<br />

Y3<br />

X1<br />

X2<br />

X3<br />

Soi<br />

académique<br />

Soi<br />

social<br />

Y1 Y2 Y3 X1 X2 X3<br />

1.000 .502 .622<br />

.502 1.000 .551<br />

.622 .551 1.000<br />

.008 .072 .028<br />

.027 .030 -.049<br />

-.029 -.059 .018<br />

.008 .027 -.029<br />

.072 .030 -.059<br />

.028 -.049 .018<br />

1.000 .442 .537<br />

.442 1.000 .413<br />

.537 .413 1.000<br />

Des zones ombragées ont été ajoutées au tableau 3.1 pour permettre de mieux<br />

observer les patrons de corrélation à l'intérieur de cette matrice rectangulaire. On<br />

observe que les quadrants I et IV renferment des coefficients de corrélation positifs et<br />

de taille modérée, alors que dans les quadrants II et III les corrélations sont<br />

pratiquement inexistantes. Une façon de parler de ces patrons de corrélation serait de<br />

dire qu'à l'intérieur des quadrants I et IV, les indices observés mesurent --- jusqu'à un<br />

certain point --- la même chose: le soi académique pour les mesures Y1, Y2 et Y3 du<br />

quadrant I et le soi social pour les indicateurs X1, X2 et X3 du quadrant IV.<br />

Nous venons essentiellement de faire « à l'œil » une analyse <strong>factorielle</strong><br />

exploratoire sur cette matrice de corrélation; cette analyse bien rapide nous indique la<br />

présence de deux dimensions — soi social et soi académique — expliquant les patrons<br />

de corrélation dans la matrice. De plus, contrairement à ce que nous aurions pu croire,<br />

il ne semble pas y avoir de relation entre ces deux dimensions; elles sont<br />

indépendantes l'une de l'autre. Cette dernière affirmation découle évidemment du fait<br />

que les quadrants II et III ne comportent aucune corrélation importante.<br />

Les facteurs « soi académique » et « soi social » peuvent être considérés comme<br />

étant des construits théoriques qui expliquent la variance commune entre X1, X2 et<br />

X3 d'une part et Y1, Y2 et Y3 d'autre part. On peut même affirmer qu'il ne devrait plus<br />

exister de corrélation entre les trois variables X1, X2 et X3 si on réussissait à éliminer<br />

de ces variables la variance explicable par le facteur commun du soi social.<br />

Similairement, le patron de corrélation entre les variables Y1, Y2 et Y3 devrait<br />

disparaître si l'on pouvait retirer de ces trois variables observées toute la variance<br />

explicable par le facteur commun du soi académique. Nous reviendrons plus loin sur<br />

cette idée que la structure de nos construits théoriques — notre modèle — implique<br />

nécessairement certains patrons de corrélation entre les variables influencées par ces<br />

mêmes construits.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 10 9 janvier, 2006


<strong>L'analyse</strong> <strong>factorielle</strong> exploratoire comme point de départ<br />

Nous pourrions analyser la matrice de corrélation du tableau 3.1 en la soumettant à<br />

une analyse <strong>factorielle</strong> exploratoire à l’aide de la procédure FACTOR du programme<br />

SPSS. Il faudrait préciser que nous voulons extraire deux facteurs communs à l'aide de<br />

la méthode d'extraction PAF (« Principal Axis Factoring »), suivie d'une rotation<br />

Varimax. Cette analyse <strong>factorielle</strong> traiterait les six variables observées comme étant des<br />

variables dépendantes et permettrait de mettre en évidence la présence de deux<br />

facteurs sous-jacents à ces mesures.<br />

Tableau 3.2<br />

Exemple d'analyse <strong>factorielle</strong> ("PAF") dans SPSS<br />

appliquée à la matrice de corrélation du tableau 3.1<br />

MATRIX DATA<br />

VARIABLES= Y1 Y2 Y3 X1 X2 X3<br />

/ CONTENT = CORR<br />

/N = 200.<br />

BEGIN DATA.<br />

1.000<br />

.502 1.00<br />

.622 .551 1.00<br />

.008 .072 .028 1.00<br />

.027 .030 -.049 .442 1.00<br />

-.029 -.059 .018 .537 .413 1.00<br />

END DATA.<br />

FACTOR MATRIX=IN(CORR=*)<br />

/ PRINT = CORRELATION KMO AIC DET INITIAL EXTRACTION ROTATION<br />

/ EXTRACTION = PAF<br />

/ ROTATION = VARIMAX<br />

/ PLOT = EIGEN.<br />

Vous pouvez obtenir une copie de ce programme afe.sps à l’adresse suivante sur le serveur<br />

ftp institutionnel: ftp://ftp.uqtr.ca/pub/dpsy/baillarg/srp6020/afe.sps<br />

• Cet exemple illustre comment il est possible de lire une matrice de corrélation directement<br />

dans SPSS et de l’utiliser comme point de départ d’une analyse statistique sans même<br />

avoir accès aux données brutes individuelles. Notez que dans ce cas il est obligatoire de<br />

recourir au mode syntaxique.<br />

• L’exemple que j’utilise ici utilise le point comme séparateur des valeurs décimales. Il se<br />

peut que vous ayez à modifier ce fichier syntaxe en remplaçant les points décimaux par<br />

des virgules, si jamais les paramètres régionaux de votre installation Windows utilisent<br />

plutôt la virgule décimale.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 11 9 janvier, 2006


L'objectif visé par l'analyse <strong>factorielle</strong> est d'expliquer les relations (p. ex., les<br />

corrélations) entre des variables observées en faisant appel à des facteurs<br />

communs ayant supposément une influence sur ces variables. La sortie SPSS<br />

confirme que les variables observées partagent une certaine proportion de variance<br />

commune (voir tableau 3.3). Aussi, comme le critère de Kaiser a été appliqué par<br />

défaut, l’analyse <strong>factorielle</strong> a extrait deux facteurs communs expliquant respectivement<br />

28.3% et 23.6% de variance commune (voir tableau 3.4).<br />

Tableau 3.3<br />

Indices de communalité de chaque variable avant et après extraction.<br />

Communalities<br />

Initial Extraction<br />

Y1<br />

.428 .567<br />

Y2<br />

.362 .451<br />

Y3<br />

.476 .675<br />

X1<br />

.356 .578<br />

X2<br />

.253 .340<br />

X3<br />

.344 .502<br />

Extraction Method: Principal Axis Factoring.<br />

Tableau 3.4<br />

Pourcentage de variance expliquée après extraction de deux facteurs communs.<br />

Factor<br />

1<br />

2<br />

3<br />

4<br />

5<br />

6<br />

Total Variance Explained<br />

Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings<br />

Total % of Variance Cumulative % Total % of Variance Cumulative % Total % of Variance Cumulative %<br />

2.122 35.374 35.374 1.696 28.272 28.272 1.695 28.256 28.256<br />

1.929 32.152 67.526 1.417 23.620 51.892 1.418 23.635 51.892<br />

.633 10.548 78.074<br />

.543 9.047 87.121<br />

.426 7.092 94.213<br />

.347 5.787 100.000<br />

Extraction Method: Principal Axis Factoring.<br />

SPSS rapporte également les pondérations correspondant à l'effet de chacun des<br />

deux facteurs sur les six variables observées. Ces coefficients sont présentés dans les<br />

matrices <strong>factorielle</strong>s avant et après rotation, sous les noms de « factor matrix » et de<br />

« rotated factor matrix » (voir tableau 3.5).<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 12 9 janvier, 2006


Tableau 3.5<br />

Matrices <strong>factorielle</strong>s avant et après rotation.<br />

Y1<br />

Y2<br />

Y3<br />

X1<br />

X2<br />

X3<br />

Factor Matrix a<br />

Factor<br />

1 2<br />

.751 -.048<br />

.671 -.022<br />

.820 -.050<br />

.087 .756<br />

.032 .582<br />

.011 .709<br />

Extraction Method: Principal Axis Factoring.<br />

a. 2 factors extracted. 11 iterations required.<br />

Y1<br />

Y2<br />

Y3<br />

X1<br />

X2<br />

X3<br />

Rotated Factor Matrix a<br />

Factor<br />

1 2<br />

.753 -.005<br />

.671 .016<br />

.822 -.003<br />

.044 .759<br />

-.001 .583<br />

-.029 .708<br />

Extraction Method: Principal Axis Factoring.<br />

Rotation Method: Varimax with Kaiser Normalization.<br />

a. Rotation converged in 3 iterations.<br />

Les multiples relations qui existent entre les facteurs et les variables observées<br />

correspondent à un modèle théorique qui peut être représenté par un ensemble<br />

d'équations où chaque variable observée est expliquée par les poids combinés des<br />

différents facteurs. Ainsi, le score d'un individu sur la variable Y1 peut être conçu<br />

comme étant la résultante de l'influence des facteurs 1 et 2 de la manière suivante:<br />

Y1 = .75124 (Facteur 1) - .04834 (Facteur 2)<br />

Les poids factoriels correspondent bien à l'idée que Y1 est une mesure de soi social<br />

et en conséquence le facteur 1 aura un poids important (.751124), alors que l'influence<br />

du facteur 2 sera minime (-.04834) puisque le facteur 2 correspond à une autre<br />

dimension psychologique indépendante de la première, à savoir le soi académique. Le<br />

modèle théorique sous-jacent à l'analyse <strong>factorielle</strong> exploratoire peut également être<br />

représenté par un graphique qui a l'avantage d'illustrer de façon unifiée l'ensemble des<br />

relations entre les facteurs et les variables. La section suivante examine quelques<br />

particularités intéressantes de l'analyse <strong>factorielle</strong> exploratoire qui apparaissent plus<br />

clairement dans une représentation graphique du modèle.<br />

Représentation graphique d'un modèle à deux facteurs indépendants<br />

Notez d'abord comment les poids factoriels tirés de la section « Factor matrix » sont<br />

transposés dans le graphique de la figure 3.2 apparaissant à la page suivante.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 13 9 janvier, 2006


Figure 3.2. Représentation graphique du modèle d'analyse<br />

<strong>factorielle</strong> exploratoire.<br />

À titre d'exemple, l'équation de tout à l'heure<br />

Y1 = .75124 (Facteur 1) - .04834 (Facteur 2)<br />

est maintenant symbolisée par la présence de deux flèches unidirectionnelles pointant<br />

vers la variable Y1, l'une correspondant à l'influence importante (.75124) du Facteur 1<br />

et l'autre à l'influence négligeable (-.04834) du Facteur 2; et ainsi de suite pour<br />

chacune des six variables observées.<br />

La représentation graphique du modèle ajoute toutefois des éléments importants.<br />

Ainsi, on voit que chacune des variables soumises à l'analyse (Y1, Y2, Y3, X1, X2 et<br />

X3) reçoit, en plus de l'influence des Facteurs 1 et 2, une source additionnelle<br />

d'influence que l'on considère être une source de variance unique et propre à chaque<br />

variable mesurée. Ces sources de variances sont symbolisées par les flèches<br />

unidirectionnelles partant d'une source u et pointant vers une variable observée<br />

spécifique. On a l'habitude d'assimiler cette variance unique à de la variance d'erreur,<br />

mais il faut comprendre que u correspond ici à tous les facteurs inconnus et non<br />

considérés dans notre modèle qui ont néanmoins une influence sur la variance de la<br />

variable visée. Pour tenir compte de cette réalité, l'équation expliquant la variance de<br />

Y1 aurait donc avantage à être réécrite de la façon suivante:<br />

Y1 = .75124 (Facteur 1) - .04834 (Facteur 2) + u<br />

Notez également que les variables observées (que l'on appelle aussi variables<br />

indicatrices ou manifestes) sont ici symbolisées par des rectangles, alors que les<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 14 9 janvier, 2006


facteurs F1 et F2 considérés comme étant des variables latentes (non mesurées<br />

directement) sont symbolisés par des ellipses. Cette distinction entre variables<br />

mesurées et variables latentes est fondamentale et nous reviendrons fréquemment sur<br />

cet aspect. Une autre observation peut être faite de la figure 3.2 : observez qu'aucune<br />

flèche ne pointe vers les variables latentes F1 et F2. L'absence de flèche ici n'est pas<br />

accidentelle; cela indique que le modèle représenté à la figure 3.2 ne cherche pas à<br />

expliquer la variance du Facteur 1 ou du Facteur 2. On dit alors que ces deux variables<br />

latentes sont des variables exogènes. Finalement, la représentation graphique du<br />

modèle indique que non seulement nous ne cherchons pas à expliquer la variance des<br />

facteurs F1 et F2, mais qu'en plus nous supposons que ces deux facteurs sont<br />

indépendants l'un de l'autre, qu'ils ne sont pas corrélés. Ce dernier aspect est indiqué<br />

par une absence de flèche bidirectionnelle entre F1 et F2. Nous voyons donc que<br />

l'utilisation d'une représentation graphique de notre modèle nous force à bien identifier<br />

les relations (ou leur absence) entre les différentes variables modélisées.<br />

Un modèle implique toujours certaines corrélations<br />

Une propriété mathématique intéressante de l'analyse <strong>factorielle</strong> est qu'il est<br />

possible d'utiliser les poids factoriels représentant l'effet des facteurs sur les variables<br />

observées de manière à reproduire les patrons de corrélation entre ces variables.<br />

L'idée est simple, si deux variables observées Y1 et Y2 subissent toutes deux l'effet<br />

d'une variable latente commune (F1), il en découle nécessairement que Y1 et Y2<br />

doivent être corrélées l'une avec l'autre dans une certaine mesure; cette corrélation est<br />

impliquée par le modèle. Nous avons donc là une façon de vérifier la valeur de la<br />

solution <strong>factorielle</strong> obtenue: en effet, nous pouvons mesurer la taille des erreurs qui se<br />

manifestent lorsque nous tentons de reproduire la matrice de corrélation initiale en<br />

partant des poids factoriels qui, selon notre modèle théorique, sont supposés<br />

"expliquer" les patrons de corrélation.<br />

Par exemple, la corrélation entre les variables observées Y1 et Y2 peut s'estimer en<br />

multipliant l'effet du Facteur 1 sur Y1 et l'effet du même facteur sur Y2; de plus, il faut<br />

ajouter les effets respectifs du Facteur 2, même si notre modèle théorique prédit que<br />

ces effets seront plutôt négligeables. Ainsi,<br />

r Y1Y2 = (.75124) (.67114) + (-.04834) (-.02246)<br />

= (.50419) + (.00109)<br />

= .50528<br />

Si nous comparons la valeur réelle du coefficient de corrélation à cette valeur<br />

reproduite en tenant compte des contraintes de notre modèle théorique, nous<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 15 9 janvier, 2006


constatons que nous avons réussi à reproduire le coefficient de corrélation apparaissant<br />

au tableau 3.1 avec une remarquable justesse:<br />

corrélation observée - corrélation reproduite = valeur résiduelle<br />

.502 - .50528 = .00328<br />

Il est possible de reproduire ainsi chacun des éléments de la matrice de corrélation<br />

initiale. Evidemment, dans les cas où deux variables observées ne dépendent pas des<br />

mêmes facteurs, le modèle prédit que nous devrions obtenir des corrélations<br />

pratiquement nulles. Par exemple, dans le cas de la corrélation entre les variables Y1 et<br />

X1:<br />

r Y1X1 = (.75124) (.08708) + (-.04834) (.75555)<br />

= (.06542) + (-.03652)<br />

= .0289<br />

Quant à l'adéquation entre la valeur observée et la valeur impliquée par notre<br />

modèle, nous obtenons:<br />

corrélation observée - corrélation reproduite = valeur résiduelle<br />

.008 - .0289 = -.0209<br />

Dans ce deuxième exemple nous constatons une erreur relativement plus grande<br />

dans la reproduction du coefficient de corrélation, bien que la valeur résiduelle soit<br />

encore très petite. Qu'en est-il maintenant de la valeur globale de notre modèle On<br />

dira que le modèle permet une bonne approximation des données lorsque la majorité<br />

des valeurs résiduelles seront plus petites que .05. Dans l'exemple actuel, un seul<br />

résiduel (-.05059) dépasse légèrement ce critère parmi les quinze coefficients qui ont<br />

été reproduits. En fonction de ces observations il serait légitime d'affirmer que notre<br />

modèle théorique est plausible, puisqu’il est capable de rendre compte adéquatement<br />

des patrons de corrélation observés dans les données recueillies.<br />

Distinctions importantes entre l'analyse <strong>factorielle</strong> exploratoire et l'analyse<br />

<strong>factorielle</strong> <strong>confirmatoire</strong><br />

Nous venons de voir que l'analyse <strong>factorielle</strong> exploratoire permet de rendre compte<br />

de la covariation entre plusieurs variables observées en ayant recours à un nombre<br />

restreint de variables latentes communément appelée « facteurs communs ». Cette<br />

définition de l'analyse <strong>factorielle</strong> demeure tout à fait valable lorsque nous adoptons une<br />

perspective <strong>confirmatoire</strong>. Cependant, malgré cette ressemblance au niveau des<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 16 9 janvier, 2006


définitions générales, les modèles théoriques sous-jacents aux analyses exploratoire et<br />

<strong>confirmatoire</strong> peuvent différer grandement à certains égards.<br />

Figure 3.2. Illustration d'un modèle comportant trois facteurs intercorrélés.<br />

La figure 3.2 représente un modèle théorique assez semblable à celui que nous<br />

avons utilisé précédemment et comporte encore six variables observées (X1 à X6).<br />

Cependant, le nouveau modèle postule que les intercorrélations entre ces variables<br />

dépendent maintenant de trois facteurs communs, les variables latentes Xsi1 à Xsi3.<br />

On note également que la figure 3.2 ajoute des liens bidirectionnels entre les trois<br />

variables latentes, c'est à dire que ce modèle assume que les facteurs communs sont<br />

intercorrélés. Parmi les caractéristiques s'appliquant à l'approche exploratoire, on peut<br />

noter les points suivants:<br />

1. Les seules contraintes que le chercheur peut imposer à son modèle concernent<br />

le nombre de facteurs qui seront extraits (ici 3) ainsi que le nombre de variables<br />

observées.<br />

2. Le chercheur ne pose pas de conditions a priori concernant la structure et<br />

l'ampleur des covariations entre les variables du modèle.<br />

3. S'il utilise une rotation orthogonale (p. ex., Varimax), toutes les variables latentes<br />

(les facteurs communs) seront indépendantes les unes des autres, c'est à dire<br />

non corrélées.<br />

4. Si au contraire le chercheur choisit d'effectuer une rotation oblique, alors toutes<br />

les variables latentes devront être intercorrélées.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 17 9 janvier, 2006


5. Il n'est donc pas possible d'accommoder dans le même modèle des situations<br />

où certaines variables latentes seraient indépendantes alors que d'autres<br />

seraient intercorrélées.<br />

6. Toutes les variables observées sont directement et nécessairement influencées<br />

par toutes les variables latentes; en d'autres termes, toutes les variables ont des<br />

poids factoriels (« factor loadings ») sur tous les facteurs.<br />

7. Les facteurs uniques delta ( 1 à 6 ) correspondant ici aux erreurs de mesure<br />

associées à chaque variable observée, sont toujours indépendants les uns des<br />

autres, c'est à dire qu'ils ne sont pas corrélés entre eux.<br />

8. Pour chacune des variables observées il existe nécessairement un facteur<br />

unique ou une source de variation correspondant à l'erreur de mesure ( 1 à 6 ).<br />

9. Finalement, les facteurs communs Ksi ( 1 à 3 ) et les facteurs uniques ( 1 à 6 )<br />

sont toujours indépendants les uns des autres, c'est à dire qu'il ne peut pas y<br />

avoir de corrélation entre ces deux types de facteurs.<br />

Toutes les caractéristiques qui viennent d'être énumérées doivent être acceptées en<br />

bloc dans une analyse <strong>factorielle</strong> exploratoire, quelles que soient les considérations<br />

théoriques que le chercheur aimerait privilégier dans son explication des variables en<br />

cause et quel que soit l'état des connaissances à l'égard du problème étudié.<br />

La figure 3.3 illustre comment l'analyse <strong>factorielle</strong> <strong>confirmatoire</strong> est beaucoup moins<br />

restrictive ou contraignante pour le chercheur. On peut y voir qu'il est possible de<br />

déroger à plusieurs des règles précédentes.<br />

Figure 3.3. Illustration de quelques particularités de l'analyse <strong>confirmatoire</strong>.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 18 9 janvier, 2006


En particulier, la figure 3.3 permet d'attirer l'attention sur les caractéristiques<br />

suivantes, propres à l'analyse <strong>confirmatoire</strong>:<br />

1. Le chercheur doit déterminer à l'avance quels facteurs communs seront corrélés<br />

les uns avec les autres et quels sont ceux que l’on prédit être indépendants. Par<br />

exemple, le modèle de la figure 3.3 postule qu'il n'y aura pas de corrélation entre<br />

les variables latentes Ksi1 et Ksi3, mais qu'il y en aura entre les deux autres<br />

paires de variables latentes.<br />

2. Le chercheur doit également déterminer à l’avance quelles variables observées<br />

seront influencées par quels facteurs communs. Par exemple, X1 n'est<br />

maintenant influencée que par Ksi1, alors que X4 est influencée par Ksi2 et Ksi3.<br />

3. Le modèle doit aussi spécifier quelles variables observées seront influencées par<br />

des facteurs uniques, incluant les erreurs de mesure. Dans l'exemple de la figure<br />

3.3, il est convenu que la variable X5 est une mesure parfaite, ne comportant<br />

aucune erreur de mesure. Cette condition de « mesure parfaite » peut sembler<br />

excessive, mais il est important de savoir que l'analyse <strong>confirmatoire</strong> permet de<br />

tester des modèles comportant de tels postulats, s’ils sont jugés appropriés.<br />

4. Finalement, le chercheur doit déterminer à l'avance s'il y aura des corrélations<br />

entre certains facteurs uniques et si oui, entre lesquels de ces facteurs. Ici, le<br />

modèle postule que les erreurs de mesure 2 et 3 seront corrélées. Puisque notre<br />

modèle ne permet pas d'expliquer cette corrélation, il est très important de<br />

pouvoir fournir une justification théorique de cette situation. Nous verrons<br />

plus loin qu'il est extrêmement tentant de permettre de telles corrélations entre<br />

les erreurs de mesure dans le seul but d'arriver à un modèle qui corresponde<br />

plus et mieux à nos données; c'est d’ailleurs l'une des nombreuses tentations à<br />

laquelle il faut tenter de résister dans l'utilisation de LISREL.<br />

La logique de l'analyse <strong>factorielle</strong> <strong>confirmatoire</strong><br />

Nous pouvons maintenant faire le lien avec ce qui a été mentionné précédemment<br />

concernant les propriétés mathématiques des structures de covariance: il est possible<br />

de reproduire les éléments de la matrice de corrélation initiale (ou matrice de variance /<br />

covariance) en utilisant les poids associés aux différents paramètres de notre modèle<br />

théorique. Chaque lien que nous postulons dans notre modèle pose certaines<br />

contraintes qui détermineront notre capacité à reproduire adéquatement les patrons de<br />

corrélation entre les données observées.<br />

<strong>L'analyse</strong> sera <strong>confirmatoire</strong> dans la mesure où, tout en tenant compte des<br />

contraintes imposées a priori à notre modèle, il sera possible de reproduire<br />

adéquatement la matrice de variance-covariance initiale. Si notre modèle théorique<br />

est mal spécifié (p. ex., qu'il postule des liens qui ne sont pas effectifs ou encore qu'il<br />

ignore des liens importants), la matrice de variance-covariance reproduite s’éloignera<br />

substantiellement du patron de variance/covariance observé entre les variables.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 19 9 janvier, 2006


Évidemment, le nombre de coefficients à reproduire peut être assez élevé puisque qu'il<br />

est fonction du nombre de variables observées, selon la règle suivante, où k correspond<br />

au nombre de variables observées:<br />

k(k + 1) / 2<br />

Ainsi, un modèle comportant six variables observées donnera lieu à une matrice de<br />

corrélation — ou de variance/covariance — comportant 21 éléments à reproduire, alors<br />

qu'un modèle à 24 variables observées entraînera la reproduction d'une matrice de 300<br />

éléments. On peut imaginer facilement que certains éléments de la matrice initiale<br />

seront moins bien reproduits que d'autres et que la comparaison des termes<br />

correspondants entre la matrice initiale et la matrice reproduite entraînera des<br />

"résiduels" plus ou moins élevés. Au delà d'une simple inspection de la taille de ces<br />

résiduels, l'avantage d'utiliser un programme comme LISREL tient au fait qu'il fournit un<br />

ensemble de tests statistiques permettant de décider si le modèle postulé rend compte<br />

adéquatement ou non des données.<br />

Mise en garde importante : Il est assez facile d'imaginer qu'un modèle qui ne<br />

réussit pas à reproduire adéquatement les données observées doive être rejeté.<br />

C'est d'ailleurs la plus grande force de LISREL: pouvoir démontrer qu'un modèle<br />

théorique est incompatible avec les données que nous avons recueillies. À<br />

l'inverse, le fait qu'un modèle réussisse à rendre compte des covariations à<br />

l'intérieur des données observées ne garantit en rien que ce modèle soit<br />

adéquat. Il est possible qu'un ou plusieurs autres modèles alternatifs produisent<br />

une solution de qualité identique ou même supérieure à notre propre solution.<br />

Tout au plus LISREL peut-il nous aider à démontrer que notre modèle est<br />

plausible, comme d'autres modèles alternatifs pourraient l'être également. C'est<br />

au chercheur qu'incombe la responsabilité d'évaluer la pertinence et la plausibilité<br />

de son modèle en le recadrant à l'intérieur d'un contexte théorique riche et articulé.<br />

L'environnement LISREL<br />

LISREL est un acronyme de « Linear structural relations ». C'est à la fois un<br />

modèle mathématique et un logiciel permettant d'expliquer un patron de relations<br />

linéaires entre plusieurs variables. Contrairement à beaucoup d'autres techniques<br />

d'analyse, LISREL peut être utilisé même si le chercheur n'a pas accès aux données<br />

brutes ou aux scores individuels du projet qui l'intéresse. Minimalement, vous devrez<br />

avoir en votre possession la matrice de corrélation ou, de préférence, la matrice de<br />

variance/covariance à analyser. Si de plus vous connaissez les moyennes de<br />

l’échantillon pour chacune des variables présentes dans la matrice, vous serez en<br />

mesure d’effectuer des analyses encore plus complexes. Par exemple, nous verrons<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 20 9 janvier, 2006


plus loin comment il est possible de comparer et de mettre à l’épreuve un même<br />

modèle auprès de différents groupes de participants. Cette « perspective multi<br />

groupes » n’est possible que si les moyennes des variables sont disponibles en plus<br />

des variances et des covariances.<br />

Distinction entre Lisrel et Prelis<br />

Pour bien exploiter l'environnement du logiciel LISREL il faut savoir que la version<br />

8.7 pour Windows intègre maintenant dans une même interface le module PRELIS et le<br />

module LISREL proprement dit. Le module PRELIS est un utilitaire qui permet de<br />

travailler un ensemble de données brutes et de sauvegarder les matrices de corrélation<br />

ou de variance/covariance qui pourront être ensuite utilisées comme données soumises<br />

au module LISREL. PRELIS est capable de lire des données individuelles sous<br />

plusieurs formats et peut même importer des fichiers produits par d'autres logiciels,<br />

comme SPSS par exemple. Nous n'utiliserons pas ce module PRELIS dans le cadre du<br />

cours. La totalité des exemples vus en classe utiliseront des matrices déjà disponibles<br />

et analysables directement par LISREL. On accède à l’un ou l’autre des deux modules<br />

à travers une interface unique représentée dans l’écran suivant. Vous reconnaîtrez les<br />

deux boutons qui permettent de lancer l'un ou l'autre de ces deux modules; ces<br />

boutons se distinguent uniquement par la lettre L ou P superposée sur le « p'tit<br />

coureur » qui s'empressera d'exécuter vos instructions.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 21 9 janvier, 2006


Les langages Lisrel et Simplis<br />

Une autre particularité de l'environnement LISREL concerne les deux langages que<br />

l'on peut utiliser pour nos programmes. Alors que le langage LISREL original<br />

nécessitait de parler grec pour pouvoir identifier chacun des paramètres de nos<br />

modèles, il est maintenant possible de spécifier ces paramètres en se limitant à<br />

quelques phrases anglaises constituant l'essentiel du langage SIMPLIS. Ceux et celles<br />

qui ont fait l'apprentissage « à la dure » du langage LISREL apprécieront probablement<br />

pouvoir encore faire exécuter leurs programmes, dans leur forme originale. Voici un<br />

exemple de la syntaxe plutôt hermétique du langage Lisrel :<br />

TI Nine Psychological Variables - A Confirmatory Factor Analysis<br />

DA NI=9 NO=145 MA=CM<br />

SY='C:\Program Files\lisrel87s\SPLEX\EX5A.DSF'<br />

MO NX=9 NK=3 TD=SY<br />

LK<br />

Visual Verbal Speed<br />

FR LX(1,1) LX(2,1) LX(3,1) LX(4,2) LX(5,2) LX(6,2) LX(7,3) LX(8,3) LX(9,3)<br />

PD<br />

OU RS<br />

Figure 3.4. Exemple d’un programme en langage LISREL. Notez les références des variables utilisant<br />

des vecteurs et des matrices; par exemple LX(1,1) … LX(9,3).<br />

À l'inverse, on comprendra que la majorité des nouveaux utilisateurs de LISREL<br />

préféreront de beaucoup s'en tenir au langage SIMPLIS. Voici le même programme<br />

que précédemment transcrit cette fois selon la syntaxe SIMPLIS. :<br />

Nine Psychological Variables - A Confirmatory Factor Analysis<br />

Observed Variables<br />

'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN<br />

ADDITION COUNTDOT 'S-C CAPS'<br />

Correlation Matrix From File EX5.COR<br />

Sample Size 145<br />

Latent Variables: Visual Verbal Speed<br />

Relationships:<br />

'VIS PERC' - LOZENGES = Visual<br />

'PAR COMP' - WORDMEAN = Verbal<br />

ADDITION - 'S-C CAPS' = Speed<br />

Number of Decimals = 3<br />

Wide Print<br />

Print Residuals<br />

Path Diagram<br />

End of Problem<br />

Figure 3.5. Exemple d’un programme en langage SIMPLIS. Notez entre autres avantages que les<br />

variables portent maintenant des noms beaucoup plus faciles à identifier.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 22 9 janvier, 2006


Les différents types de fichiers du système Lisrel<br />

L’environnement Lisrel est particulièrement intimidant en raison du nombre et de la<br />

diversité des fichiers que vous allez rencontrer. On peut d’abord distinguer les fichiers<br />

qui comportent des commandes spécifiques à l’un ou l’autre des différents modules de<br />

Lisrel. Dans ce cours nous utiliserons essentiellement les fichiers portant l’extension<br />

.spl et se référant à la syntaxe Simplis.<br />

Extension<br />

*.pr2<br />

*.ls8<br />

*.spl<br />

Type de contenus<br />

Fichier de commandes PRELIS<br />

Fichier de commandes LISREL<br />

Fichier de commandes SIMPLIS<br />

D’autres fichiers sont créés par Lisrel pour conserver soit les données brutes, soit<br />

les données systèmes qui sont elles-mêmes produites en mode « projets interactifs ».<br />

Vous n’aurez pas à utiliser ces fichiers dans le cadre du cours puisque tous les<br />

exemples que nous examinerons porteront sur des matrices de corrélation ou de<br />

variance/covariance. À titre d’information, voici quand même les extensions spécifiques<br />

de ces fichiers :<br />

Extension<br />

*.psf<br />

*.dsf<br />

*.spj<br />

*.lpj<br />

Type de contenus<br />

Fichier de données brutes lisibles<br />

par PRELIS<br />

Fichier de données système (Data<br />

System File) lisible par LISREL ou<br />

SIMPLIS<br />

Fichier de projet SIMPLIS créé en<br />

mode interactif<br />

Fichier de projet Lisrel créé en<br />

mode interactif<br />

Finalement, l’exécution d’un programme SIMPLIS (ou LISREL) entraînera la<br />

production d’un fichier de résultats que vous voudrez généralement examiner et<br />

imprimer au besoin. À titre optionnel, vous voudrez aussi obtenir une représentation<br />

visuelle, c'est-à-dire un diagramme des chemins critiques correspondant au modèle mis<br />

à l’épreuve. Sachez qu’il est même possible d’amorcer l’analyse d’un modèle en créant<br />

d’abord sa représentation graphique, pour ensuite demander au système de générer<br />

pour vous le code syntaxique Lisrel ou Simplis.<br />

Extension<br />

*.out<br />

*.pth<br />

Type de contenus<br />

Fichier de résultats<br />

Graphique des chemins critiques<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 23 9 janvier, 2006


En plus des types de fichiers qui viennent d’être énumérés et qui sont propres à<br />

l’application Lisrel, vous pouvez aussi utiliser des fichiers en format texte conventionnel<br />

qui contiendront les matrices de corrélation ou de variance/covariance à analyser. Par<br />

exemple, si vous examinez le contenu du programme SIMPLIS présenté à la figure 3.5,<br />

vous remarquerez la présence de la ligne suivante : Correlation Matrix From File<br />

EX5.COR. Cette instruction informe LISREL que les données à analyser devront être<br />

lues directement à partir du fichier EX5.COR qui comporte la portion triangulaire<br />

inférieure de la matrice de corrélation.<br />

1<br />

.318 1<br />

.436 .419 1<br />

.335 .234 .323 1<br />

.304 .157 .283 .722 1<br />

.326 .195 .35 .714 .685 1<br />

.116 .057 .056 .203 .246 .17 1<br />

.314 .145 .229 .095 .181 .113 .585 1<br />

.489 .239 .361 .309 .345 .28 .403 .512 1<br />

Figure 3.6. Exemple du format de lecture d’une matrice de corrélation. Ce fichier doit être créé à l’aide<br />

d’un éditeur de texte comme le Bloc-notes de Windows.<br />

En plus des extensions spécifiques à Lisrel, on peut donc ajouter deux derniers<br />

types de fichiers pour lesquels vous auriez avantage à respecter les conventions<br />

suivantes :<br />

Extension<br />

*.cor<br />

*.cov<br />

Type de contenus<br />

Fichier de données contenant une<br />

matrice de corrélation<br />

Fichier de données contenant une<br />

matrice de variance/covariance<br />

Les commandes les plus utiles du langage SIMPLIS<br />

L’utilisation du logiciel Lisrel est devenue beaucoup plus facile depuis l’ajout du langage<br />

SIMPLIS qui permet une approche un peu plus conviviale. Les commandes sont quand<br />

même nombreuses et leur utilisation est encore plutôt capricieuse. Le tableau suivant<br />

survole une portion des commandes les plus utiles. Vous pouvez obtenir des<br />

précisions et de l’aide additionnelle sur toutes les autres commandes à partir du menu<br />

déroulant de Lisrel en suivant la séquence suivante : Help ¬ Contents ¬ Syntax Files<br />

¬ SIMPLIS ¬ Contents…<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 24 9 janvier, 2006


Tableau 3.6<br />

Synthèse des commandes SIMPLIS les plus utiles..<br />

Commandes Statut Remarques<br />

[Title]<br />

Optionnel - Un programme SIMPLIS peut commencer par une ou plusieurs lignes de titre.<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- Le mot «TITLE» lui-même n'est pas obligatoire.<br />

- La fin du titre est indiquée par une nouvelle ligne qui commence par Observed<br />

Variables<br />

Observed Variables [from File filename]<br />

Obligatoire<br />

- Cette commande précise le nombre et l'ordre des variables observées.<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- Chaque variable doit avoir un nom unique dont les huit premiers caractères seront<br />

conservés et imprimés par le programme.<br />

- Une convention suggérée est d'utiliser des lettres majuscules pour les variables<br />

observées. Exemples: BECK, 'QI VERBAL', BEM1, ANXIETY1<br />

- Il est possible de lire les noms des variables à partir d'un fichier.<br />

Covariance Matrix [from File filename]<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

ou<br />

Correlation Matrix [from File filename]<br />

Obligatoire<br />

- A moins de situations exceptionnelles les données soumises à LISREL sont des<br />

matrices de variance/covariance ou des matrices de corrélation.<br />

- Ces matrices sont presque toujours préparées à l'avance dans des fichiers externes<br />

à l’aide d’un éditeur de texte comme le Bloc-notes de Windows.<br />

- On donne seulement le triangle inférieur de la matrice (incluant la diagonale).<br />

Attention! Assurez-vous d’utiliser des points ou des virgules comme séparateurs des<br />

valeurs décimales en conformité avec les attributs régionaux de votre environnement<br />

Windows. Par exemple:<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 25 9 janvier, 2006


- - - - - - - - - - - - - - - - - - - - - -<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

covariance corrélation<br />

38.60 ou 1.0<br />

13.63 16.96 .899 1.0<br />

24.62 8.00 27.22 .654 .758 1.0<br />

5.60 4.81 6.27 6.16 .725 .839 .439 1.0<br />

- Certaines analyses exigent que l'on ait en plus les moyennes et les écarts-types de<br />

toutes les variables observées.<br />

Sample Size = Obligatoire - Il faut indiquer la taille de l'échantillon qui a servi à calculer la matrice de corrélation<br />

ou de covariance et ce, même si vous n’utilisez pas les données individuelles.<br />

Exemple: Sample Size = 305<br />

Latent Variables: Obligatoire - Chaque variable latente doit avoir un nom unique dont seuls les huit premiers<br />

caractères seront conservés.<br />

- Une convention suggérée est de mettre seulement la première lettre en majuscule.<br />

Exemples: Desir, Perception, Motivation, Succes<br />

- Une variable latente ne peut pas porter le même nom qu'une variable observée.<br />

Toutefois, il faut se rappeler que MEMOIRE et Memoire sont deux noms différents et<br />

qu’ils peuvent donc coexister dans le même programme.<br />

- Il est possible d'utiliser LISREL pour faire des analyses acheminatoires ne<br />

comportant aucune variable latente; dans ce cas particulier la commande «Latent<br />

Variables» est inutile et doit être éliminée.<br />

Relationships: Obligatoire - Cette commande précise quelle(s) variable(s) dépend(ent) de quelle(s) variable(s).<br />

- Une variable nommée à gauche du signe = correspond à une variable dépendante<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 26 9 janvier, 2006


- - - - - - - - - - - - - - - - - - - - - -<br />

qui sera affectée par la ou les variables nommées à droite du signe =.<br />

- - - - - - - - - - - - - - - - - - - - - -<br />

- Exemples où deux variables latentes influencent des sous-ensembles différents de<br />

six variables observées:<br />

TEST1 TEST2 TEST3 TEST7 = Qiverbal<br />

TEST4 TEST5 TEST6 TEST7 = Qinonverbal<br />

- Exemple où une variable latente influence deux autres variables latentes:<br />

Qiverbal Qinonverbal = Intelligence<br />

Let the Errors between VarA and VarB<br />

Correlate<br />

Optionnel<br />

- Par défaut, les modèles LISREL assument que tous les termes d'erreurs sont<br />

indépendants les uns des autres (non corrélés).<br />

- Il est possible de libérer certains de ces paramètres et de les faire estimer par<br />

LISREL. Une telle procédure doit s'appuyer sur des justifications théoriques solides<br />

et ne doit pas être utilisée simplement pour augmenter l'adéquation entre le modèle<br />

et les données analysées.<br />

Set the Covariance of Ksi1 - Ksi3 to 0.0<br />

or<br />

Set the Correlation of Ksi1 - Ksi3 to 0.0<br />

Optionnel<br />

- Par défaut, les variables latentes exogènes (Ksi) sont intercorrélées.<br />

- Si notre modèle postule que la corrélation (ou la covariance) entre certaines<br />

variables Ksi est inexistante, il est possible de fixer ce(s) paramètre(s) à 0.0<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 27 9 janvier, 2006


[Number of Decimals = 3] Optionnel - Le nombre de décimales est 2 par défaut.<br />

- Il est possible d'exiger plus de précision.<br />

[Path Diagram] Optionnel Cette commande permet d'obtenir un diagramme du modèle. Lorsque le diagramme<br />

est à l'écran il est possible d'ajouter (ou d'éliminer) des liens entre les variables et de<br />

réestimer le modèle. Un diagramme peut également être sauvegardé (*.pth) et<br />

réutilisé plus tard pour démarrer une analyse. Il est aussi possible, à partir d'un<br />

diagramme de modèle de faire générer le code LISREL ou le code SIMPLIS<br />

correspondant.<br />

[Print Residuals] Optionnel - LISREL présente les valeurs résiduelles de façon succincte.<br />

- Cette commande provoquera l'impression de toutes les valeurs résiduelles; la sortie<br />

imprimée devient TRÈS volumineuse, mais permet d'examiner avec minutie les<br />

sections du modèle qui ne sont pas adéquates.<br />

[Lisrel output] Optionnel - Cette commande permet de produire l'output selon le format LISREL plutôt que le<br />

format SIMPLIS. Dans certaines circonstances on choisira ce format car quelques<br />

statistiques (comme les estimés des effets directs et indirects) ne sont pas<br />

disponibles dans le format SIMPLIS par défaut.<br />

[End of Problem] Optionnel - Bien que cette dernière commande soit optionnelle, son usage est fortement<br />

recommandé.<br />

- La commande devient obligatoire si nous désirons placer plusieurs programmes<br />

SIMPLIS, les uns à la suite des autres, dans un même fichier. Ce sera le cas dans<br />

les analyses multi-groupes.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 28 9 janvier, 2006


Les estimés des paramètres en format SIMPLIS<br />

Par défaut LISREL utilise la méthode du « Maximum Likelihood » (ML) pour<br />

estimer les différents paramètres d'un modèle. Bien qu'il existe six autres méthodes<br />

d'estimation disponibles, la méthode ML est de loin la plus populaire et la plus<br />

fréquemment utilisée. Il s'agit d'une procédure itérative qui permet d'estimer<br />

simultanément tous les paramètres d'un modèle en tenant compte de l'ensemble des<br />

équations définissant le modèle. Sommairement, on peut décrire la procédure comme<br />

suit: Une méthode d'estimation rapide « Two-Stage Least Squares » (TSLS) est<br />

d'abord utilisée pour déterminer des valeurs de départ pour chacun des paramètres à<br />

estimer et la matrice des valeurs résiduelles est alors calculée en comparant la matrice<br />

de variance/covariance impliquée et la matrice de données initiales. Le programme<br />

calcule alors un nouvel ensemble amélioré de valeurs pour chacun des paramètres et<br />

évalue à nouveau la matrice résiduelle... Ce processus se poursuit de façon itérative<br />

jusqu'à ce qu'il y ait convergence vers la solution optimale. Au terme de ce processus,<br />

on est assuré qu'aucun ajustement des paramètres ne pourrait donner une meilleure<br />

approximation de la matrice de variance/covariance initiale.<br />

La sortie de résultats en format SIMPLIS donne sous forme d'équations<br />

l'ensemble des paramètres du modèle de mesure. Ainsi, pour chaque variable<br />

indicatrice (ou observée) une équation donne les pondérations associées aux variables<br />

latentes ayant une influence sur cette variable observée. En fait, la sortie imprimée<br />

fournit trois informations particulières: a) l'estimé non-standardisé du paramètre, b)<br />

l'erreur de mesure du paramètre et c) la valeur t permettant de vérifier la signification<br />

du paramètre, à savoir s'il est différent de zéro.<br />

Ainsi, l'encadré suivant présente un extrait de la sortie de résultats pour le<br />

programme Nine Psychological Variables (ex5A.spl). On peut voir que la variable<br />

manifeste « VIS PERC » est influencée selon une pondération de .672 fois la variable<br />

latente « Visual. » Ce coefficient s'interprète de la façon habituelle; il correspond au<br />

changement dans la variable dépendante (ici VIS PERC) produit par un changement<br />

d'une unité dans la variable latente Visual lorsque toutes les autres variables de<br />

l'équation sont contrôlées. En divisant le paramètre .672 par son erreur de mesure<br />

0.0910, on obtient la valeur t permettant de tester l'hypothèse que le paramètre est<br />

différent de zéro; les valeurs t plus grande que 1.96 sont significatives à p


Faites l'exercice d'examiner la deuxième équation dans l'encadré. Que pouvezvous<br />

dire de l'influence des variables latentes Visual, Verbal et Speed sur la mesure<br />

observée des CUBES Quel est le pourcentage de variance expliquée pour la variable<br />

CUBES <br />

LISREL Estimates (Maximum Likelihood)<br />

LISREL Estimates (Maximum Likelihood)<br />

Measurement Equations<br />

VIS PERC = 0.672*Visual, Errorvar.= 0.548 , R² = 0.452<br />

(0.0910) (0.0971)<br />

7.388 5.645<br />

CUBES = 0.513*Visual, Errorvar.= 0.737 , R² = 0.263<br />

(0.0924) (0.101)<br />

5.551 7.300<br />

LOZENGES = 0.684*Visual, Errorvar.= 0.532 , R² = 0.468<br />

(0.0910) (0.0974)<br />

7.516 5.461<br />

PAR COMP = 0.867*Verbal, Errorvar.= 0.248 , R² = 0.752<br />

(0.0702) (0.0515)<br />

12.348 4.819<br />

SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689<br />

(0.0715) (0.0537)<br />

11.608 5.787<br />

WORDMEAN = 0.826*Verbal, Errorvar.= 0.318 , R² = 0.682<br />

(0.0716) (0.0541)<br />

11.525 5.882<br />

ADDITION = 0.660*Speed, Errorvar.= 0.564 , R² = 0.436<br />

(0.0853) (0.0874)<br />

7.742 6.458<br />

COUNTDOT = 0.801*Speed, Errorvar.= 0.359 , R² = 0.641<br />

(0.0846) (0.0896)<br />

9.464 4.006<br />

S-C CAPS = 0.677*Speed, Errorvar.= 0.542 , R² = 0.458<br />

(0.0851) (0.0869)<br />

7.949 6.235<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 30 9 janvier, 2006


Remarquez maintenant comment les différents paramètres reproduits dans<br />

l’encadré ci-haut se retrouvent également dans le graphique représentant le modèle mis<br />

à l’épreuve. On y voit clairement a) les variances d’erreur de chaque variable<br />

manifeste, c'est-à-dire la proportion de variance qui n’est pas expliquée par l’influence<br />

des facteurs communs, b) les coefficients de régression représentant l’influence des<br />

variables latentes sur leurs variables manifestes respectives et c) la variance de<br />

chacune des trois variables latentes puisqu’il s’agit ici de variables standardisées<br />

possédant chacune une unité de variance.<br />

Les indices d'ajustement dans les sorties de résultats en format SIMPLIS<br />

LISREL fournit un nombre impressionnant d'indices permettant d'évaluer le niveau<br />

d'ajustement d'un modèle. D'ailleurs il est reconnu que la qualité d'un modèle ne peut<br />

pas se décider sur la base d'un indice unique. En situation de recherche « réelle » il n'est<br />

pas rare d'être confronté à des indices contradictoires, les uns tendant à invalider le<br />

modèle, les autres suggérant au contraire que le modèle est acceptable. Dans un tel cas,<br />

il est d'autant plus important d'appuyer notre conclusion sur plusieurs indices<br />

convergents. Voici quelques commentaires sur les indices d’ajustement, dans l’ordre où<br />

ils sont produits dans une analyse typique :<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 31 9 janvier, 2006


Goodness of Fit Statistics<br />

Degrees of Freedom = 24<br />

Minimum Fit Function Chi-Square = 52.626 (P = 0.000648)<br />

d l = ½ k(k + 1) - t<br />

où k = nombre de variables observées et<br />

t = nombre de paramètres estimés<br />

Indice le plus connu testant l'hypothèse nulle voulant que le modèle<br />

rende compte parfaitement des données. Un χ 2 significatif indique<br />

qu’il y a des écarts significatifs entre les prédictions du modèle et les<br />

données observées.<br />

Un problème avec ce premier indice, c'est que la taille des<br />

échantillons est telle que souvent des différences significatives<br />

seront détectées par le χ 2 , alors que ces différences ne sont pas<br />

« théoriquement » de grande importance. Il est donc possible de<br />

conserver un modèle même en présence d'un χ 2 significatif.<br />

Normal Theory Weighted Least Squares<br />

Chi-Square = 49.966 (P = 0.00143)<br />

Estimated Non-centrality Parameter (NCP) = 25.966<br />

90 Percent Confidence Interval for NCP = (9.461 ;<br />

50.223)<br />

Population Discrepancy Function Value (F 0 ) = 0.180<br />

Même interprétation que le χ 2 précédent.<br />

Correspond au χ 2 précédent moins (-) le nombre de degrés de<br />

liberté. Plus cette valeur est grande, plus il y a divergence entre le<br />

modèle et les données.<br />

Intervalle de confiance à 90% de l'indice NCP.<br />

Contrairement au χ 2 , cet indice ne pose pas comme postulat que le<br />

modèle tienne parfaitement dans la population. Aussi, puisque F 0<br />

décroît généralement à mesure que des paramètres sont ajoutés au<br />

modèle, il est recommandé de tenir compte du nombre de dl.<br />

90 Percent Confidence Interval for F 0 = (0.0657 ; 0.349) Intervalle de confiance à 90% de l'indice F 0 .<br />

Root Mean Square Error of Approximation (RMSEA) = 0.0867 S'obtient en prenant la racine carrée de F 0 / dl. Cet indice évalue<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 32 9 janvier, 2006


lui aussi l'adéquation entre la matrice reproduite et la matrice<br />

observée tout en tenant compte la complexité du modèle (en<br />

divisant par le nombre de degrés de liberté).<br />

< 0.05 l'ajustement est bon; entre 0.05 et 0.08 il est raisonnable;<br />

entre 0.08 et 0.10 il est médiocre; et > 0.10 il est inacceptable.<br />

90 Percent Confidence Interval for RMSEA = (0.0523 ;<br />

0.121)<br />

P-Value for Test of Close Fit (RMSEA S 0.05) = 0.0409<br />

Intervalle de confiance à 90% de l'indice RMSEA.<br />

Teste l'hypothèse nulle que RMSEA est


sensible aux écarts à la normalité et n'est pas très stable si n < 200.<br />

Model AIC = 91.966<br />

Saturated AIC = 90.000<br />

Independence CAIC = 711.249<br />

Model CAIC = 175.477<br />

Saturated CAIC = 268.953<br />

AIC dans le modèle mis à l'épreuve.<br />

AIC dans le modèle saturé.<br />

Consistent version of AIC. Le CAIC tient compte de la taille de<br />

l'échantillon, mais il s'interprète de la même façon que le AIC.<br />

Une plus petite valeur sur ce critère correspond à un meilleur<br />

modèle.<br />

CAIC dans le modèle mis à l'épreuve.<br />

CAIC dans le modèle saturé.<br />

Normed Fit Index (NFI) = 0.920 Voir plus loin le BBI (« Bentler & Bonett normed fit index »)<br />

Non-Normed Fit Index (NNFI) = 0.931<br />

Le NNFI appartient à la famille des indices relatifs d'ajustement qui<br />

permettent de vérifier si un modèle produit un meilleur ajustement<br />

qu'un modèle de comparaison (généralement le modèle nul).<br />

Exceptionnellement le NNFI peut prendre une valeur > 1.<br />

Parsimony Normed Fit Index (PNFI) = 0.613<br />

Comparative Fit Index (CFI) = 0.954<br />

Incremental Fit Index (IFI) = 0.955<br />

Relative Fit Index (RFI) = 0.880<br />

Root Mean Square Residual (RMR) = 0.0755<br />

Le PNFI produit généralement des valeurs plus faibles que le NNFI.<br />

Diamantopoulos et Siguaw mentionnent que le CFI et le NNFI<br />

devraient être privilégiés comme indices relatifs d'ajustement.<br />

Correspond à la moyenne des résiduels entre les covariances observées et<br />

les covariances impliquées par le modèle. Dans le cas des matrices de<br />

corrélation l'indice RMR devrait être < 0.05. Pour les matrices de<br />

covariance, il faut adapter cette règle en l’appliquant au RMR<br />

standardisé car la taille du RMR brut est alors influencée par la métrique<br />

des mesures.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 34 9 janvier, 2006


Standardized RMR = 0.0755<br />

Goodness of Fit Index (GFI) = 0.928<br />

Adjusted Goodness of Fit Index (AGFI) = 0.866<br />

Parsimony Goodness of Fit Index (PGFI) = 0.495<br />

Correspond à la moyenne des résiduels standardisés. Un score<br />

résiduel individuel dépassant 2.58 en valeur absolue est considéré<br />

important. Une valeur moyenne se situant en bas de 0.05 indique un<br />

ajustement acceptable.<br />

Le GFI est un indice absolu d'ajustement qui ne requiert pas de<br />

comparaison entre plusieurs modèles. Le GFI indique la proportion de<br />

variance/covariance reproduite par le modèle. Cet indice doit être ><br />

0.90 pour qu'un modèle soit jugé acceptable.<br />

Le AGFI correspond au GFI, mais avec un ajustement pour le nombre<br />

de degrés de liberté du modèle.<br />

Quant au PGFI , il propose un autre type d'ajustement tenant en<br />

compte la complexité du modèle. Cet indice est souvent beaucoup<br />

plus faible que le GFI. Certains modèles sont même acceptés avec des<br />

PGFI dans l'ordre de 0.5.<br />

Devant cette liste impressionnante d'indices disponibles, Diamantopoulos et Siguaw<br />

(2000) suggèrent qu'une décision éclairée devrait pouvoir être prise concernant la qualité<br />

d'ajustement d'un modèle en s'appuyant sur le χ 2 de même que sur les indices suivants:<br />

RMSEA, ECVI, RMR standardisés, GFI et CFI. Plus récemment, Kline (2005) va exactement<br />

dans le même sens et recommande les quatre indices suivants : a) le χ 2 du modèle<br />

« minimum fit function chi-square », b) le RMSEA, en incluant son intervalle de confiance à<br />

90%, c) le CFI et d) le RMR standardisé.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 35 9 janvier, 2006


Évaluation de la qualité des modèles<br />

En plus de tenir compte des indices dont il vient d’être fait mention, le chercheur averti<br />

devrait être à l’affût de toutes indications susceptibles de révéler l’inadéquacité d’un<br />

modèle. Voici quelques points importants à considérer :<br />

• L'ordre de grandeur des paramètres estimés<br />

Il est clair que si l'un ou l'autre des paramètres estimés par LISREL se situe<br />

en en dehors des valeurs raisonnables, ceci est déjà une indication formelle<br />

que le modèle n'est pas adéquat.<br />

Les cas les plus évidents sont:<br />

- des variances négatives<br />

- des corrélations > 1.00<br />

- des matrices de corrélation ou de covariance singulières « non positive<br />

definite »<br />

D'autres problèmes moins évidents peuvent être décelés par les points<br />

suivants:<br />

- taille excessive ( > 5.00) des erreurs standards des paramètres estimés<br />

- fortes corrélations entre paramètres estimés<br />

• Adéquation du modèle de mesure<br />

La qualité du modèle de mesure peut être évaluée en tenant compte de sa<br />

capacité à rendre compte de la variation au niveau des mesures observées:<br />

- Vérifier les R 2 pour chaque variable observée. Ces valeurs sont des<br />

indices de fidélité de chaque variable observée en tant que mesure de sa<br />

variable latente. Ces valeurs doivent être positives et tendre vers 1.0.<br />

• Indices subjectifs d'ajustement du modèle global.<br />

En tenant compte des problèmes soulevés précédemment avec<br />

l'interprétation des χ 2 , plusieurs auteurs ont proposé de nouveaux indices<br />

plus subjectifs:<br />

- « rapport Χ 2 / dl » : Ce rapport ne devrait pas excéder 2.00 (bien que<br />

certains auteurs acceptent jusqu'à 5.00)<br />

- BBI (« Bentler & Bonett normed fit index ») : Cet indice compare<br />

l'ajustement obtenu à l'aide d'un modèle théorique donné en l'opposant à<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 36 9 janvier, 2006


l'ajustement obtenu par un modèle dit « de comparaison » (connu souvent<br />

sous l'appellation « modèle nul »). Un indice supérieur à .90 est acceptable.<br />

Le Χ 2 du modèle nul apparaît sous le nom « Chi-square for independence<br />

model».<br />

Le calcul du BBI n'était pas directement disponible dans les versions<br />

précédentes de LISREL. Il fallait le calculer à la main en comparant les Χ 2<br />

obtenus dans le modèle nul (F 0 ) et le modèle qui nous intéressait (F 1 ):<br />

BBI = (F 0 - F 1 ) / F 0<br />

Cet indice est maintenant disponible directement dans les résultats produits<br />

par LISREL, sous le nom de « Normed fit index NFI »<br />

• Indices d'ajustement des paramètres individuels.<br />

Pour chacun des paramètres évalués par LISREL (ceux dits "libres"), il est<br />

possible d'obtenir une valeur t indiquant si le paramètre est<br />

significativement différent de zéro. En général les valeurs > 2.00 sont<br />

considérées significatives. Cependant une grande controverse existe sur<br />

l'utilisation de ces statistiques lorsque des matrices de corrélation sont<br />

analysées. Les valeurs t risquent de ne pas être exactes lorsque l’analyse<br />

porte sur des matrices de corrélation.<br />

• Indices de modification.<br />

Enfin, pour chacun des paramètres "fixes" LISREL fournit un indice de<br />

modification (MI) correspondant à la "baisse attendue du 02 si ce paramètre<br />

spécifique était libéré". Ces indices de modification peuvent donc être utiles<br />

pour localiser des paramètres possiblement mal spécifiés dans notre<br />

modèle...<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 37 9 janvier, 2006


Références<br />

Aiken, L. S., West, S. G., Sechrest, L., & Reno, R. (1990). Graduate training in<br />

statistics, methodology, and measurement in psychology: A survey of Ph.D.<br />

programs in North America. American Psychologist, 45, 721-734.<br />

Bagozzi, R.P., & Heatherton, T.F. (1994). A general approach to representing<br />

multifaceted personality constructs : Application to state self-esteem. Structural<br />

Equation Modeling, 1(1), 35<br />

Diamantopoulos, A., & Siguaw, J. A. (2000). Introducing LISREL. Thousand Oaks, CA :<br />

Sage.<br />

Hertzog, C., Hultsch, D. F., & Dixon, R. A. (1989). Evidence for the convergent validity<br />

of two self-report metamemory questionnaires. Developmental Psychology, 25,<br />

687-700.<br />

Kline, R. B. (2005). Principles and practice of structural equation modeling (2 e éd). New<br />

York: Guilford Press.<br />

Maslach, C., & Jackson, S. (1986). Maslach Burnout Inventory manual (2 e éd.). Palo<br />

Alto, CA: Consulting Psychologists Press.<br />

Miyake, A., Friedman, N. P., Emerson, M. J., Witzki, A. H., & Howerter, A. (2000). The<br />

unity and diversity of executive functions and their contributions to complex “frontal<br />

lobe” tasks: A latent variable analysis. Cognitive Psychology, 41, 49-100.<br />

Pedhazur, E. J., & Pedhazur Schmelkin, L. (1991). Measurement, design, and analysis:<br />

an integrated approach. Hillsdale, NJ : LEA.<br />

Yadama, G. N., & Drake, B. (1995). Confirmatory factor analysis of the Maslach<br />

burnout inventory. Social Work Research, 19, 184-192.<br />

_____________________________________________________________________________<br />

© Tous droits réservés, Jacques Baillargeon Page 38 9 janvier, 2006

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!