L'analyse factorielle confirmatoire.
L'analyse factorielle confirmatoire.
L'analyse factorielle confirmatoire.
- No tags were found...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong>.<br />
Objectifs de la section<br />
Au terme de cette section vous serez en mesure :<br />
De faire la distinction entre une analyse <strong>factorielle</strong> exploratoire et une analyse<br />
<strong>factorielle</strong> <strong>confirmatoire</strong><br />
De faire la distinction entre variables observées ou manifestes et variables<br />
latentes (exogènes et endogènes)<br />
De spécifier un modèle de mesure et d’en faire une représentation visuelle<br />
D’effectuer une analyse <strong>factorielle</strong> <strong>confirmatoire</strong> sur LISREL<br />
De vous appuyer sur des indices reconnus pour juger de la valeur du modèle<br />
théorique mis à l’épreuve<br />
Introduction<br />
L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> (AFC) est une technique statistique qui se situe<br />
évidemment dans le prolongement de l’analyse <strong>factorielle</strong> exploratoire dont nous avons<br />
traitée dans une section précédente. En ce sens, les deux techniques partagent<br />
certaines ressemblances : elles s’intéressent toutes deux à la structure latente d’un<br />
ensemble de données complexes et permettent d’expliquer les corrélations observées<br />
entre des variables à l’aide d’un nombre réduit de variables latentes, communément<br />
appelées « facteurs ». Dans les deux cas on peut ajouter que la mise en évidence des<br />
facteurs latents constitue aussi une forme de réduction des données. Cependant,<br />
comme son nom le laisse clairement sous-entendre, l’analyse <strong>confirmatoire</strong> se situe à<br />
une étape beaucoup plus avancée dans la démarche de recherche que l’analyse<br />
exploratoire.<br />
L’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> permet de mettre à l’épreuve des hypothèses<br />
spécifiques concernant l’influence des variables latentes sur les données recueillies;<br />
elle permet donc de tester un modèle théorique. En comparaison, l’analyse <strong>factorielle</strong><br />
exploratoire est plutôt une procédure servant à faire émerger une théorie sans qu’il soit<br />
vraiment possible de la mettre à l’épreuve de façon convaincante. Un chercheur qui<br />
utiliserait l’analyse exploratoire pourrait facilement découvrir des dimensions<br />
insoupçonnées dans ses données et réussir à les interpréter a posteriori dans un<br />
contexte théorique défendable. Le fait que les facteurs obtenus soient<br />
« interprétables après coup » recèle une valeur théorique indéniable, mais cela ne<br />
constitue pas pour autant un test formel d’une quelconque théorie.<br />
Par opposition, en analyse <strong>factorielle</strong> <strong>confirmatoire</strong> tout doit s’élaborer à partir d’une<br />
théorie explicite. Le chercheur doit formuler a priori un ensemble d’hypothèses<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 1 9 janvier, 2006
concernant les données qu’il s’apprête à analyser ou à recueillir. Il doit identifier à<br />
l’avance les variables latentes (les facteurs) faisant partie du modèle théorique qu’il veut<br />
mettre à l’épreuve et il doit sélectionner en conséquence les variables observées qu’il<br />
utilisera comme reflets de l’influence des variables latentes. Nous verrons plus loin,<br />
que lorsqu’une analyse <strong>confirmatoire</strong> ne concorde pas parfaitement avec la théorie<br />
mise à l’épreuve, tout n’est pas perdu. Le chercheur pourra s’appuyer sur les résultats<br />
obtenus pour modifier sa propre position théorique, mais on conviendra qu’avec ce<br />
changement de perspective, il est maintenant passé en phase d’exploration et il ne peut<br />
plus prétendre à la confirmation son modèle.<br />
La puissance de l’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> vient à un prix. En effet cette<br />
technique n’est pas directement disponible dans la version SPSS 12.0 pour Windows<br />
que nous utilisons dans le cadre de ce cours, bien que par ailleurs la compagnie SPSS<br />
mette en marché le logiciel AMOS 5.0 consacré à ce type d’analyse. Il vous faudra<br />
donc vous familiariser avec LISREL, un autre logiciel spécialisé dans l’analyse des<br />
structures de covariance dont fait partie l’analyse <strong>confirmatoire</strong>.<br />
LISREL est le produit vedette commercialisé par Scientific Software International.<br />
Une section de leur site web (http://www.ssicentral.com/) est d'ailleurs consacrée à la<br />
dernière version de ce produit, soit LISREL 8.7. Ce logiciel est passablement<br />
dispendieux, mais ceux qui aimeraient se familiariser avec le produit peuvent le faire en<br />
téléchargeant une version étudiante gratuite à l’adresse suivante :<br />
http://www.ssicentral.com/lisrel/student.html. Une fois installée cette version allégée<br />
vous permettra d'explorer toutes les facettes de LISREL, mais ne fonctionnera qu'avec<br />
des modèles relativement simples ne comportant pas plus de 20 variables observées.<br />
Je vous encourage fortement à télécharger ce produit et à l’utiliser pour les prochains<br />
exercices. C’est la même version limitée qui devrait être accessible sur les postes de<br />
travail des salles publiques.<br />
La popularité des modèles LISREL est remarquable. Si vous avez l'habitude de<br />
fouiller régulièrement la documentation scientifique dans l'un ou l'autre des champs de<br />
la psychologie, vous avez sûrement noté l'apparition de ces attrayants schémas<br />
composés de cercles et rectangles reliés les uns aux autres par des flèches uni- ou<br />
bidirectionnelles. Il y a de fortes chances que ces analyses aient été produites à l'aide<br />
de LISREL ou d'un autre programme du même type. Curieusement, il semble que ces<br />
techniques soient réservées à quelques initiés plus hardis qui n'ont pas trop peur des<br />
statistiques avancées. Un grand nombre de chercheurs dont la formation remonte à<br />
plus d’une dizaine d’années n'ont pas encore fait le saut et se demandent quand et<br />
comment ils pourront bien se mettre à la page. D'ailleurs, dans une enquête menée<br />
pour le compte de l'American Psychological Association (APA), il a été démontré que la<br />
très grande majorité des programmes de doctorat en psychologie n'avaient pas encore<br />
introduit ces techniques dans leur curriculum au début des années 90 (Aiken et al.,<br />
1990).<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 2 9 janvier, 2006
Quelques exemples réels d’application<br />
Dans le but de bien saisir le contexte d’application de l’analyse <strong>factorielle</strong><br />
<strong>confirmatoire</strong> nous examinerons brièvement trois exemples réels de recherches qui ont<br />
utilisé ce type d’analyse.<br />
Le premier exemple concerne le construit théorique de l’épuisement professionnel<br />
(« burnout »). Depuis bientôt deux décennies l’Inventaire d’épuisement professionnel<br />
de Maslach (Maslach & Jackson, 1986) s’est imposé comme étant l’instrument de<br />
mesure le plus populaire de ce construit. L’inventaire développé par Maslach reflète<br />
une conception tridimensionnelle de l’épuisement où interagissent l’épuisement<br />
émotionnel, la dépersonnalisation et l’affaiblissement du sentiment d’accomplissement<br />
personnel. Au cours des dernières années, plusieurs désaccords se sont manifestés à<br />
propos des relations existant entre ces trois dimensions de l’épuisement. Yadama et<br />
Drake (1995) se sont donné comme objectif de démontrer la validité de la théorie de<br />
Maslach par le biais d’une analyse <strong>confirmatoire</strong>. Ils ont procédé à l’analyse des<br />
réponses de 176 travailleurs sociaux à l’Inventaire d’épuisement professionnel de<br />
Maslach constitué de 22 items. Leur hypothèse était à l’effet que l’inventaire mesure<br />
trois dimensions inter reliées : la première, l’épuisement émotionnel, serait mesurée par<br />
les items1, 2, 3, 6, 8, 13, 14, 16 et 20; la dépersonnalisation quant à elle serait mesurée<br />
par les items 5, 10, 11, 15 et 22; enfin, le sentiment d’accomplissement personnel serait<br />
évalué par les items 4, 7, 9, 12, 17, 18, 19 et 21. Les résultats de l’analyse<br />
<strong>confirmatoire</strong> n’ont pas permis d’appuyer le modèle théorique proposé; en effet, autant<br />
le χ 2 de 507.84, p
peut devenir extrêmement périlleuse et même impraticable lorsque le nombre d’items<br />
est trop considérable. Bagozzi et Heatherton (1994) vont même jusqu’à suggérer de ne<br />
pas procéder à l’analyse <strong>confirmatoire</strong> au niveau des items individuels d’un<br />
questionnaire, mais plutôt de créer deux ou trois scores composites en faisant la<br />
sommation de groupuscules d’items pour chaque construit participant à l’analyse. Dans<br />
l’exemple qui suit, nous verrons que l’analyse <strong>confirmatoire</strong> peut aussi servir à<br />
démontrer la validité convergente de deux instruments d’un même construit théorique.<br />
Hertzog, Hultsch et Dixon (1989) se sont intéressés au phénomène de la<br />
métamémoire, c’est-à-dire cet ensemble de croyances et de connaissances que nous<br />
entretenons tous à propos du fonctionnement de notre mémoire. Ces auteurs<br />
soulignent le nombre impressionnant de questionnaires mis au point pour évaluer ce<br />
construit théorique. En particulier deux instruments semblent avoir la faveur des<br />
chercheurs : le « Metamemory in Adulthood Questionnaire (MIA) » et le « Memory<br />
Functioning Questionnaire (MFQ).» Hertzog et al. (1989) ont voulu examiner la validité<br />
convergente de ces deux instruments, c’est-à-dire de démontrer que les échelles des<br />
deux instruments mesurent bien les mêmes dimensions définissant le construit de la<br />
métamémoire. Leur étude est fort complexe puisqu’elle s’est déroulée en plusieurs<br />
étapes, auprès de deux échantillons distincts, l’un canadien (N = 624), l’autre américain<br />
(N = 415). Il est impossible de présenter ici dans le détail tous leurs résultats. À titre<br />
d’illustration, on peut mentionner qu’ils ont d’abord utilisé les données de l’échantillon<br />
américain pour développer un modèle cohérent de la métamémoire; bien que le χ 2 de<br />
91.44 était significatif (p
l’unité et la diversité des fonctions exécutives impliquées dans des tâches complexes<br />
mobilisant le lobe frontal. Une controverse assez importante existe actuellement à<br />
propos de l’unicité des mécanismes responsables du bon fonctionnement dans ce type<br />
de tâche. Alors que les théories initiales semblaient attribuer une « saveur d’unicité » à<br />
ce mécanisme de gestion centrale responsable des fonctions exécutives, on retrouve<br />
maintenant plusieurs mises en doute de ce principe. Miyake et al. (2000) ont donc<br />
décidé d’étudier trois fonctions exécutives spécifiques. La première correspond à<br />
l’alternance (« shifting ») requise pour passer d’une tâche à une autre ou d’un état<br />
mental à un autre; la deuxième fonction correspond à la mise à jour (« updating ») des<br />
représentations en mémoire de travail; enfin, la troisième fonction correspond au<br />
mécanisme responsable de l’inhibition des réponses dominantes. Miyake et al. (2000)<br />
ont considéré ces fonctions (shifing, updating et inhibition) comme étant trois variables<br />
latentes. Pour chacune de ces variables latentes ils ont sélectionné trois tâches<br />
simples représentant de façon pure la fonction concernée. Ainsi, le « shifting » a été<br />
mesuré de trois façons, à l’aide de trois variables manifestes : d’abord par la tâche<br />
« addition / soustraction » où il fallait effectuer une série de calculs mentaux en<br />
alternant continuellement entre +3 et -3. La deuxième mesure du shifting correspondait<br />
à la tâche « chiffre / lettre » où une paire « chiffre / lettre » apparaissait à l’écran dans<br />
l’un ou l’autre de quatre quadrants. Lorsque le stimulus apparaissait dans les quadrants<br />
supérieurs, le participant devait indiquer si le chiffre était pair ou impair; par contre,<br />
lorsque le stimulus était présenté dans l’un ou l’autre des deux quadrants inférieurs, le<br />
participant devait dire si la lettre était une voyelle ou une consonne. Enfin, la troisième<br />
tâche était la tâche dite « locale / globale » au cours de laquelle on présentait des<br />
formes géométriques globales sur un écran (cercles, X, triangles, carré, etc.) Les<br />
contours de ces formes géométriques étaient eux-mêmes constitués de minuscules<br />
formes géométriques – cercles, X, triangles, carrés, etc. Selon que les stimuli étaient<br />
bleus ou noirs, les participants devaient dire le plus vite possible combien de lignes<br />
formaient la figure géométrique locale (lorsque bleue) ou globale (lorsque noire).<br />
Similairement, six autres tâches ont été utilisées comme variables manifestes : trois<br />
pour évaluer la fonction « updating » et trois autres pour la fonction « inhibition. »<br />
L’analyse a été faite sur les résultats de 137 participants et a consisté à mettre en<br />
comparaison deux modèles explicatifs de la performance dans les 9 tâches manifestes :<br />
un modèle à trois variables latentes et un modèle à variable latente unique. Sur la base<br />
des différents indices calculés par LISREL, les auteurs ont clairement démontré que le<br />
modèle à trois variables latentes (χ 2 = 20.29, p >.65) était mieux capable de rendre<br />
compte de la covariance observée entre les 9 mesures que le modèle à variable latente<br />
unique (χ 2 = 36.17, p >.10), la différence entre les deux modèles étant significative (χ 2 =<br />
15.88, p
latentes. Par exemple, 84.6 % de la variance du test de Stroop (.92 2 ) correspond à de<br />
la variance non associée à l’effet du facteur inhibition.<br />
Figure 3.1 Solution finale retenue par Miyake et al. (2000) (reproduit de la figure 2,<br />
page 70 de leur article).<br />
Ce troisième exemple d’analyse <strong>factorielle</strong> <strong>confirmatoire</strong> se distingue nettement des<br />
deux exemples précédents, en ce sens qu’il va au-delà de la simple validation d’un<br />
questionnaire ou d’une combinaison de questionnaires évaluant un même construit<br />
théorique. Dans leur étude, Miyake et al. (2000) se sont appuyés sur un riche contexte<br />
théorique développé conjointement par la psychologie cognitive et la neuropsychologie<br />
clinique; ce contexte théorique leur a permis d’élaborer a priori un modèle comportant<br />
trois variables latentes. Enfin, ils ont choisi ce qui leur semblait être les meilleurs<br />
indicateurs (variables manifestes) de ces variables latentes pour être en mesure de<br />
procéder à un test formel de leur modèle. Nous sommes bien loin d’une simple<br />
analyse <strong>factorielle</strong> exploratoire où le chercheur aurait laissé les données lui indiquer la<br />
présence de facteurs qu’il aurait tenté d’interpréter a posteriori. Nous reviendrons<br />
éventuellement sur l’étude de Miyake et al. (2000) lorsque nous traiterons des analyses<br />
d’équations structurales.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 6 9 janvier, 2006
Matrices de variance-covariance et matrices de corrélation<br />
Les données d'entrées sur lesquelles portent les analyses <strong>factorielle</strong>s <strong>confirmatoire</strong>s<br />
et les autres analyses de type LISREL sont la plupart du temps des matrices de<br />
variance-covariance ou, dans certains cas, des matrices de corrélation. (Notez<br />
cependant que le logiciel LISREL s'accompagne d'un module PRELIS qui permet de<br />
travailler à partir de données brutes individuelles si on le désire et de générer les<br />
différentes matrices de covariance ou de corrélation que l'on peut ensuite soumettre à<br />
LISREL.) En psychologie, les chercheurs ont développé l’habitude de travailler surtout<br />
avec des matrices de corrélation. Ce faisant, ils mettent complètement de côté la<br />
métrique des différentes mesures qu’ils recueillent, puisqu’ils utilisent alors des<br />
variables standardisées (M = 0.0, écart-type = 1.0). Cette pratique ne prête pas<br />
tellement à conséquence parce que, le plus souvent, les variables qui intéressent les<br />
psychologues ont de toute façon des métriques arbitrairement définies. Pour vous en<br />
convaincre, essayez d’identifier l’unité de mesure appropriée pour mesurer la<br />
perception de contrôle, la créativité, l’estime de soi, etc. Aussi, il est important de<br />
constater que la corrélation que l’on observe entre deux variables dont les échelles de<br />
mesures ont été standardisées se manifeste également si l’on s’en tient aux échelles<br />
brutes (non standardisées) des mêmes variables : on parle alors du concept de<br />
covariance entre deux variables. La covariance est aux échelles brutes (préservant la<br />
métrique originale) ce que la corrélation est aux échelles standardisées.<br />
Supposons les trois variables suivantes, X, Y et Z:<br />
X Y Z<br />
Moyenne (M): 5.85 13.70 16.45<br />
Écart-type (S): 2.04 4.18 6.37<br />
Variance (S 2 ): 4.14 17.46 40.56<br />
La matrice de variance-covariance pour ces données correspond à une matrice<br />
rectangulaire où l'on retrouve les variances de chaque variable dans la diagonale et les<br />
covariances entre les paires de variables dans les autres cellules.<br />
X Y Z<br />
X 4.14 5.37 12.05<br />
Y 5.37 17.46 21.52<br />
Z 12.05 21.52 40.56<br />
Puisque la covariance entre X et Y est équivalente à la covariance entre Y et X, il y<br />
a redondance dans cette matrice rectangulaire et il est courant de présenter<br />
uniquement la portion triangulaire inférieure de la matrice de covariance; nous l'avons<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 7 9 janvier, 2006
eproduite à nouveau en présentant à sa droite la matrice de corrélation<br />
correspondante:<br />
Variance-covariance<br />
4.14<br />
5.37 17.46<br />
12.05 21.52 40.56<br />
Corrélation<br />
1.0<br />
.63 1.0<br />
.93 .81 1.0<br />
Il existe évidemment une relation directe entre la matrice de variance-covariance et<br />
la matrice de corrélation puisqu'elles représentent toutes deux les covariations entre les<br />
mêmes variables X, Y et Z. En fait, si les variables initiales sont standardisées (c.-à-d.,<br />
avec une moyenne de zéro et un écart-type de 1, comme les scores z) la covariance<br />
entre ces variables correspond alors au coefficient de corrélation avec lequel vous<br />
êtes probablement plus familier.<br />
La formule suivante illustre clairement que la covariance entre deux variables (S xy 2 )<br />
est constituée à la fois de la corrélation entre les deux mesures et du produit de leurs<br />
écarts-types.<br />
COV xy = r xy X écart-type x X écart-type y<br />
en effet,<br />
S 2 S 2 S 2<br />
xy = r xy x × y<br />
5.37 = .63 4.14 x 17.46<br />
S 2<br />
2 S 2<br />
xy = r xy S<br />
x y<br />
= .63 4.14 17.46<br />
ou<br />
ou<br />
S xy<br />
2 = r xy S<br />
x<br />
S<br />
y<br />
= .63 × 2.04 × 4. 18<br />
Réciproquement, il va de soi que la corrélation reflète à son tour la covariance entre<br />
deux variables tout en prenant en compte les variances de chacune des deux mesures.<br />
La décomposition de la formule suivante vous permet de bien saisir que vous pouvez<br />
déterminer le coefficient de corrélation entre X et Y si vous connaissez la variance de X,<br />
la variance de Y et la covariance entre X et Y.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 8 9 janvier, 2006
xy =<br />
COV xy<br />
VAR x × VAR y<br />
r xy<br />
=<br />
S 2 xy<br />
S 2 S 2 x × y<br />
en effet,<br />
. 63 =<br />
5.37<br />
4.14 x 17.46<br />
ou<br />
r xy =<br />
r xy<br />
S<br />
x<br />
=<br />
S 2 xy<br />
2<br />
S<br />
x<br />
S 2 xy<br />
×<br />
S 2 y<br />
S<br />
y<br />
ou<br />
ou<br />
=<br />
=<br />
5.37<br />
4.14 17.46<br />
5.37<br />
2.04 × 4.18<br />
Je vous invite à confirmer votre compréhension des rapports entre corrélation et<br />
covariance en vérifiant la proximité de ces mesures à l’aide du logiciel SPSS. J’ai placé<br />
deux fichiers de démonstration (srp6020_xyz.sav et srp6020_xyz.sps) sur le serveur<br />
ftp du cours. Ce sont des données inventées (n = 300) que j’ai utilisées dans les<br />
exemples précédents.<br />
Examen d'une matrice de corrélation<br />
Considérons la matrice de corrélation présentée au tableau 3.1 (données<br />
reproduites de Pedhazur, Pedhazur et Schmelkin (1991), page 593). Il s'agit des<br />
coefficients de corrélation entre six variables (Y1, Y2, Y3, X1, X2 et X3) mesurant<br />
différents aspects du concept de soi: les variables Y correspondent à des indices du soi<br />
académique, alors que les variables X sont des mesures du soi social.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 9 9 janvier, 2006
Soi<br />
académique<br />
Soi<br />
social<br />
Tableau 3.1<br />
Exemple d'une matrice de corrélation entre six indicateurs<br />
du concept de soi. N = 200.<br />
Y1<br />
Y2<br />
Y3<br />
X1<br />
X2<br />
X3<br />
Soi<br />
académique<br />
Soi<br />
social<br />
Y1 Y2 Y3 X1 X2 X3<br />
1.000 .502 .622<br />
.502 1.000 .551<br />
.622 .551 1.000<br />
.008 .072 .028<br />
.027 .030 -.049<br />
-.029 -.059 .018<br />
.008 .027 -.029<br />
.072 .030 -.059<br />
.028 -.049 .018<br />
1.000 .442 .537<br />
.442 1.000 .413<br />
.537 .413 1.000<br />
Des zones ombragées ont été ajoutées au tableau 3.1 pour permettre de mieux<br />
observer les patrons de corrélation à l'intérieur de cette matrice rectangulaire. On<br />
observe que les quadrants I et IV renferment des coefficients de corrélation positifs et<br />
de taille modérée, alors que dans les quadrants II et III les corrélations sont<br />
pratiquement inexistantes. Une façon de parler de ces patrons de corrélation serait de<br />
dire qu'à l'intérieur des quadrants I et IV, les indices observés mesurent --- jusqu'à un<br />
certain point --- la même chose: le soi académique pour les mesures Y1, Y2 et Y3 du<br />
quadrant I et le soi social pour les indicateurs X1, X2 et X3 du quadrant IV.<br />
Nous venons essentiellement de faire « à l'œil » une analyse <strong>factorielle</strong><br />
exploratoire sur cette matrice de corrélation; cette analyse bien rapide nous indique la<br />
présence de deux dimensions — soi social et soi académique — expliquant les patrons<br />
de corrélation dans la matrice. De plus, contrairement à ce que nous aurions pu croire,<br />
il ne semble pas y avoir de relation entre ces deux dimensions; elles sont<br />
indépendantes l'une de l'autre. Cette dernière affirmation découle évidemment du fait<br />
que les quadrants II et III ne comportent aucune corrélation importante.<br />
Les facteurs « soi académique » et « soi social » peuvent être considérés comme<br />
étant des construits théoriques qui expliquent la variance commune entre X1, X2 et<br />
X3 d'une part et Y1, Y2 et Y3 d'autre part. On peut même affirmer qu'il ne devrait plus<br />
exister de corrélation entre les trois variables X1, X2 et X3 si on réussissait à éliminer<br />
de ces variables la variance explicable par le facteur commun du soi social.<br />
Similairement, le patron de corrélation entre les variables Y1, Y2 et Y3 devrait<br />
disparaître si l'on pouvait retirer de ces trois variables observées toute la variance<br />
explicable par le facteur commun du soi académique. Nous reviendrons plus loin sur<br />
cette idée que la structure de nos construits théoriques — notre modèle — implique<br />
nécessairement certains patrons de corrélation entre les variables influencées par ces<br />
mêmes construits.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 10 9 janvier, 2006
<strong>L'analyse</strong> <strong>factorielle</strong> exploratoire comme point de départ<br />
Nous pourrions analyser la matrice de corrélation du tableau 3.1 en la soumettant à<br />
une analyse <strong>factorielle</strong> exploratoire à l’aide de la procédure FACTOR du programme<br />
SPSS. Il faudrait préciser que nous voulons extraire deux facteurs communs à l'aide de<br />
la méthode d'extraction PAF (« Principal Axis Factoring »), suivie d'une rotation<br />
Varimax. Cette analyse <strong>factorielle</strong> traiterait les six variables observées comme étant des<br />
variables dépendantes et permettrait de mettre en évidence la présence de deux<br />
facteurs sous-jacents à ces mesures.<br />
Tableau 3.2<br />
Exemple d'analyse <strong>factorielle</strong> ("PAF") dans SPSS<br />
appliquée à la matrice de corrélation du tableau 3.1<br />
MATRIX DATA<br />
VARIABLES= Y1 Y2 Y3 X1 X2 X3<br />
/ CONTENT = CORR<br />
/N = 200.<br />
BEGIN DATA.<br />
1.000<br />
.502 1.00<br />
.622 .551 1.00<br />
.008 .072 .028 1.00<br />
.027 .030 -.049 .442 1.00<br />
-.029 -.059 .018 .537 .413 1.00<br />
END DATA.<br />
FACTOR MATRIX=IN(CORR=*)<br />
/ PRINT = CORRELATION KMO AIC DET INITIAL EXTRACTION ROTATION<br />
/ EXTRACTION = PAF<br />
/ ROTATION = VARIMAX<br />
/ PLOT = EIGEN.<br />
Vous pouvez obtenir une copie de ce programme afe.sps à l’adresse suivante sur le serveur<br />
ftp institutionnel: ftp://ftp.uqtr.ca/pub/dpsy/baillarg/srp6020/afe.sps<br />
• Cet exemple illustre comment il est possible de lire une matrice de corrélation directement<br />
dans SPSS et de l’utiliser comme point de départ d’une analyse statistique sans même<br />
avoir accès aux données brutes individuelles. Notez que dans ce cas il est obligatoire de<br />
recourir au mode syntaxique.<br />
• L’exemple que j’utilise ici utilise le point comme séparateur des valeurs décimales. Il se<br />
peut que vous ayez à modifier ce fichier syntaxe en remplaçant les points décimaux par<br />
des virgules, si jamais les paramètres régionaux de votre installation Windows utilisent<br />
plutôt la virgule décimale.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 11 9 janvier, 2006
L'objectif visé par l'analyse <strong>factorielle</strong> est d'expliquer les relations (p. ex., les<br />
corrélations) entre des variables observées en faisant appel à des facteurs<br />
communs ayant supposément une influence sur ces variables. La sortie SPSS<br />
confirme que les variables observées partagent une certaine proportion de variance<br />
commune (voir tableau 3.3). Aussi, comme le critère de Kaiser a été appliqué par<br />
défaut, l’analyse <strong>factorielle</strong> a extrait deux facteurs communs expliquant respectivement<br />
28.3% et 23.6% de variance commune (voir tableau 3.4).<br />
Tableau 3.3<br />
Indices de communalité de chaque variable avant et après extraction.<br />
Communalities<br />
Initial Extraction<br />
Y1<br />
.428 .567<br />
Y2<br />
.362 .451<br />
Y3<br />
.476 .675<br />
X1<br />
.356 .578<br />
X2<br />
.253 .340<br />
X3<br />
.344 .502<br />
Extraction Method: Principal Axis Factoring.<br />
Tableau 3.4<br />
Pourcentage de variance expliquée après extraction de deux facteurs communs.<br />
Factor<br />
1<br />
2<br />
3<br />
4<br />
5<br />
6<br />
Total Variance Explained<br />
Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings<br />
Total % of Variance Cumulative % Total % of Variance Cumulative % Total % of Variance Cumulative %<br />
2.122 35.374 35.374 1.696 28.272 28.272 1.695 28.256 28.256<br />
1.929 32.152 67.526 1.417 23.620 51.892 1.418 23.635 51.892<br />
.633 10.548 78.074<br />
.543 9.047 87.121<br />
.426 7.092 94.213<br />
.347 5.787 100.000<br />
Extraction Method: Principal Axis Factoring.<br />
SPSS rapporte également les pondérations correspondant à l'effet de chacun des<br />
deux facteurs sur les six variables observées. Ces coefficients sont présentés dans les<br />
matrices <strong>factorielle</strong>s avant et après rotation, sous les noms de « factor matrix » et de<br />
« rotated factor matrix » (voir tableau 3.5).<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 12 9 janvier, 2006
Tableau 3.5<br />
Matrices <strong>factorielle</strong>s avant et après rotation.<br />
Y1<br />
Y2<br />
Y3<br />
X1<br />
X2<br />
X3<br />
Factor Matrix a<br />
Factor<br />
1 2<br />
.751 -.048<br />
.671 -.022<br />
.820 -.050<br />
.087 .756<br />
.032 .582<br />
.011 .709<br />
Extraction Method: Principal Axis Factoring.<br />
a. 2 factors extracted. 11 iterations required.<br />
Y1<br />
Y2<br />
Y3<br />
X1<br />
X2<br />
X3<br />
Rotated Factor Matrix a<br />
Factor<br />
1 2<br />
.753 -.005<br />
.671 .016<br />
.822 -.003<br />
.044 .759<br />
-.001 .583<br />
-.029 .708<br />
Extraction Method: Principal Axis Factoring.<br />
Rotation Method: Varimax with Kaiser Normalization.<br />
a. Rotation converged in 3 iterations.<br />
Les multiples relations qui existent entre les facteurs et les variables observées<br />
correspondent à un modèle théorique qui peut être représenté par un ensemble<br />
d'équations où chaque variable observée est expliquée par les poids combinés des<br />
différents facteurs. Ainsi, le score d'un individu sur la variable Y1 peut être conçu<br />
comme étant la résultante de l'influence des facteurs 1 et 2 de la manière suivante:<br />
Y1 = .75124 (Facteur 1) - .04834 (Facteur 2)<br />
Les poids factoriels correspondent bien à l'idée que Y1 est une mesure de soi social<br />
et en conséquence le facteur 1 aura un poids important (.751124), alors que l'influence<br />
du facteur 2 sera minime (-.04834) puisque le facteur 2 correspond à une autre<br />
dimension psychologique indépendante de la première, à savoir le soi académique. Le<br />
modèle théorique sous-jacent à l'analyse <strong>factorielle</strong> exploratoire peut également être<br />
représenté par un graphique qui a l'avantage d'illustrer de façon unifiée l'ensemble des<br />
relations entre les facteurs et les variables. La section suivante examine quelques<br />
particularités intéressantes de l'analyse <strong>factorielle</strong> exploratoire qui apparaissent plus<br />
clairement dans une représentation graphique du modèle.<br />
Représentation graphique d'un modèle à deux facteurs indépendants<br />
Notez d'abord comment les poids factoriels tirés de la section « Factor matrix » sont<br />
transposés dans le graphique de la figure 3.2 apparaissant à la page suivante.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 13 9 janvier, 2006
Figure 3.2. Représentation graphique du modèle d'analyse<br />
<strong>factorielle</strong> exploratoire.<br />
À titre d'exemple, l'équation de tout à l'heure<br />
Y1 = .75124 (Facteur 1) - .04834 (Facteur 2)<br />
est maintenant symbolisée par la présence de deux flèches unidirectionnelles pointant<br />
vers la variable Y1, l'une correspondant à l'influence importante (.75124) du Facteur 1<br />
et l'autre à l'influence négligeable (-.04834) du Facteur 2; et ainsi de suite pour<br />
chacune des six variables observées.<br />
La représentation graphique du modèle ajoute toutefois des éléments importants.<br />
Ainsi, on voit que chacune des variables soumises à l'analyse (Y1, Y2, Y3, X1, X2 et<br />
X3) reçoit, en plus de l'influence des Facteurs 1 et 2, une source additionnelle<br />
d'influence que l'on considère être une source de variance unique et propre à chaque<br />
variable mesurée. Ces sources de variances sont symbolisées par les flèches<br />
unidirectionnelles partant d'une source u et pointant vers une variable observée<br />
spécifique. On a l'habitude d'assimiler cette variance unique à de la variance d'erreur,<br />
mais il faut comprendre que u correspond ici à tous les facteurs inconnus et non<br />
considérés dans notre modèle qui ont néanmoins une influence sur la variance de la<br />
variable visée. Pour tenir compte de cette réalité, l'équation expliquant la variance de<br />
Y1 aurait donc avantage à être réécrite de la façon suivante:<br />
Y1 = .75124 (Facteur 1) - .04834 (Facteur 2) + u<br />
Notez également que les variables observées (que l'on appelle aussi variables<br />
indicatrices ou manifestes) sont ici symbolisées par des rectangles, alors que les<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 14 9 janvier, 2006
facteurs F1 et F2 considérés comme étant des variables latentes (non mesurées<br />
directement) sont symbolisés par des ellipses. Cette distinction entre variables<br />
mesurées et variables latentes est fondamentale et nous reviendrons fréquemment sur<br />
cet aspect. Une autre observation peut être faite de la figure 3.2 : observez qu'aucune<br />
flèche ne pointe vers les variables latentes F1 et F2. L'absence de flèche ici n'est pas<br />
accidentelle; cela indique que le modèle représenté à la figure 3.2 ne cherche pas à<br />
expliquer la variance du Facteur 1 ou du Facteur 2. On dit alors que ces deux variables<br />
latentes sont des variables exogènes. Finalement, la représentation graphique du<br />
modèle indique que non seulement nous ne cherchons pas à expliquer la variance des<br />
facteurs F1 et F2, mais qu'en plus nous supposons que ces deux facteurs sont<br />
indépendants l'un de l'autre, qu'ils ne sont pas corrélés. Ce dernier aspect est indiqué<br />
par une absence de flèche bidirectionnelle entre F1 et F2. Nous voyons donc que<br />
l'utilisation d'une représentation graphique de notre modèle nous force à bien identifier<br />
les relations (ou leur absence) entre les différentes variables modélisées.<br />
Un modèle implique toujours certaines corrélations<br />
Une propriété mathématique intéressante de l'analyse <strong>factorielle</strong> est qu'il est<br />
possible d'utiliser les poids factoriels représentant l'effet des facteurs sur les variables<br />
observées de manière à reproduire les patrons de corrélation entre ces variables.<br />
L'idée est simple, si deux variables observées Y1 et Y2 subissent toutes deux l'effet<br />
d'une variable latente commune (F1), il en découle nécessairement que Y1 et Y2<br />
doivent être corrélées l'une avec l'autre dans une certaine mesure; cette corrélation est<br />
impliquée par le modèle. Nous avons donc là une façon de vérifier la valeur de la<br />
solution <strong>factorielle</strong> obtenue: en effet, nous pouvons mesurer la taille des erreurs qui se<br />
manifestent lorsque nous tentons de reproduire la matrice de corrélation initiale en<br />
partant des poids factoriels qui, selon notre modèle théorique, sont supposés<br />
"expliquer" les patrons de corrélation.<br />
Par exemple, la corrélation entre les variables observées Y1 et Y2 peut s'estimer en<br />
multipliant l'effet du Facteur 1 sur Y1 et l'effet du même facteur sur Y2; de plus, il faut<br />
ajouter les effets respectifs du Facteur 2, même si notre modèle théorique prédit que<br />
ces effets seront plutôt négligeables. Ainsi,<br />
r Y1Y2 = (.75124) (.67114) + (-.04834) (-.02246)<br />
= (.50419) + (.00109)<br />
= .50528<br />
Si nous comparons la valeur réelle du coefficient de corrélation à cette valeur<br />
reproduite en tenant compte des contraintes de notre modèle théorique, nous<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 15 9 janvier, 2006
constatons que nous avons réussi à reproduire le coefficient de corrélation apparaissant<br />
au tableau 3.1 avec une remarquable justesse:<br />
corrélation observée - corrélation reproduite = valeur résiduelle<br />
.502 - .50528 = .00328<br />
Il est possible de reproduire ainsi chacun des éléments de la matrice de corrélation<br />
initiale. Evidemment, dans les cas où deux variables observées ne dépendent pas des<br />
mêmes facteurs, le modèle prédit que nous devrions obtenir des corrélations<br />
pratiquement nulles. Par exemple, dans le cas de la corrélation entre les variables Y1 et<br />
X1:<br />
r Y1X1 = (.75124) (.08708) + (-.04834) (.75555)<br />
= (.06542) + (-.03652)<br />
= .0289<br />
Quant à l'adéquation entre la valeur observée et la valeur impliquée par notre<br />
modèle, nous obtenons:<br />
corrélation observée - corrélation reproduite = valeur résiduelle<br />
.008 - .0289 = -.0209<br />
Dans ce deuxième exemple nous constatons une erreur relativement plus grande<br />
dans la reproduction du coefficient de corrélation, bien que la valeur résiduelle soit<br />
encore très petite. Qu'en est-il maintenant de la valeur globale de notre modèle On<br />
dira que le modèle permet une bonne approximation des données lorsque la majorité<br />
des valeurs résiduelles seront plus petites que .05. Dans l'exemple actuel, un seul<br />
résiduel (-.05059) dépasse légèrement ce critère parmi les quinze coefficients qui ont<br />
été reproduits. En fonction de ces observations il serait légitime d'affirmer que notre<br />
modèle théorique est plausible, puisqu’il est capable de rendre compte adéquatement<br />
des patrons de corrélation observés dans les données recueillies.<br />
Distinctions importantes entre l'analyse <strong>factorielle</strong> exploratoire et l'analyse<br />
<strong>factorielle</strong> <strong>confirmatoire</strong><br />
Nous venons de voir que l'analyse <strong>factorielle</strong> exploratoire permet de rendre compte<br />
de la covariation entre plusieurs variables observées en ayant recours à un nombre<br />
restreint de variables latentes communément appelée « facteurs communs ». Cette<br />
définition de l'analyse <strong>factorielle</strong> demeure tout à fait valable lorsque nous adoptons une<br />
perspective <strong>confirmatoire</strong>. Cependant, malgré cette ressemblance au niveau des<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 16 9 janvier, 2006
définitions générales, les modèles théoriques sous-jacents aux analyses exploratoire et<br />
<strong>confirmatoire</strong> peuvent différer grandement à certains égards.<br />
Figure 3.2. Illustration d'un modèle comportant trois facteurs intercorrélés.<br />
La figure 3.2 représente un modèle théorique assez semblable à celui que nous<br />
avons utilisé précédemment et comporte encore six variables observées (X1 à X6).<br />
Cependant, le nouveau modèle postule que les intercorrélations entre ces variables<br />
dépendent maintenant de trois facteurs communs, les variables latentes Xsi1 à Xsi3.<br />
On note également que la figure 3.2 ajoute des liens bidirectionnels entre les trois<br />
variables latentes, c'est à dire que ce modèle assume que les facteurs communs sont<br />
intercorrélés. Parmi les caractéristiques s'appliquant à l'approche exploratoire, on peut<br />
noter les points suivants:<br />
1. Les seules contraintes que le chercheur peut imposer à son modèle concernent<br />
le nombre de facteurs qui seront extraits (ici 3) ainsi que le nombre de variables<br />
observées.<br />
2. Le chercheur ne pose pas de conditions a priori concernant la structure et<br />
l'ampleur des covariations entre les variables du modèle.<br />
3. S'il utilise une rotation orthogonale (p. ex., Varimax), toutes les variables latentes<br />
(les facteurs communs) seront indépendantes les unes des autres, c'est à dire<br />
non corrélées.<br />
4. Si au contraire le chercheur choisit d'effectuer une rotation oblique, alors toutes<br />
les variables latentes devront être intercorrélées.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 17 9 janvier, 2006
5. Il n'est donc pas possible d'accommoder dans le même modèle des situations<br />
où certaines variables latentes seraient indépendantes alors que d'autres<br />
seraient intercorrélées.<br />
6. Toutes les variables observées sont directement et nécessairement influencées<br />
par toutes les variables latentes; en d'autres termes, toutes les variables ont des<br />
poids factoriels (« factor loadings ») sur tous les facteurs.<br />
7. Les facteurs uniques delta ( 1 à 6 ) correspondant ici aux erreurs de mesure<br />
associées à chaque variable observée, sont toujours indépendants les uns des<br />
autres, c'est à dire qu'ils ne sont pas corrélés entre eux.<br />
8. Pour chacune des variables observées il existe nécessairement un facteur<br />
unique ou une source de variation correspondant à l'erreur de mesure ( 1 à 6 ).<br />
9. Finalement, les facteurs communs Ksi ( 1 à 3 ) et les facteurs uniques ( 1 à 6 )<br />
sont toujours indépendants les uns des autres, c'est à dire qu'il ne peut pas y<br />
avoir de corrélation entre ces deux types de facteurs.<br />
Toutes les caractéristiques qui viennent d'être énumérées doivent être acceptées en<br />
bloc dans une analyse <strong>factorielle</strong> exploratoire, quelles que soient les considérations<br />
théoriques que le chercheur aimerait privilégier dans son explication des variables en<br />
cause et quel que soit l'état des connaissances à l'égard du problème étudié.<br />
La figure 3.3 illustre comment l'analyse <strong>factorielle</strong> <strong>confirmatoire</strong> est beaucoup moins<br />
restrictive ou contraignante pour le chercheur. On peut y voir qu'il est possible de<br />
déroger à plusieurs des règles précédentes.<br />
Figure 3.3. Illustration de quelques particularités de l'analyse <strong>confirmatoire</strong>.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 18 9 janvier, 2006
En particulier, la figure 3.3 permet d'attirer l'attention sur les caractéristiques<br />
suivantes, propres à l'analyse <strong>confirmatoire</strong>:<br />
1. Le chercheur doit déterminer à l'avance quels facteurs communs seront corrélés<br />
les uns avec les autres et quels sont ceux que l’on prédit être indépendants. Par<br />
exemple, le modèle de la figure 3.3 postule qu'il n'y aura pas de corrélation entre<br />
les variables latentes Ksi1 et Ksi3, mais qu'il y en aura entre les deux autres<br />
paires de variables latentes.<br />
2. Le chercheur doit également déterminer à l’avance quelles variables observées<br />
seront influencées par quels facteurs communs. Par exemple, X1 n'est<br />
maintenant influencée que par Ksi1, alors que X4 est influencée par Ksi2 et Ksi3.<br />
3. Le modèle doit aussi spécifier quelles variables observées seront influencées par<br />
des facteurs uniques, incluant les erreurs de mesure. Dans l'exemple de la figure<br />
3.3, il est convenu que la variable X5 est une mesure parfaite, ne comportant<br />
aucune erreur de mesure. Cette condition de « mesure parfaite » peut sembler<br />
excessive, mais il est important de savoir que l'analyse <strong>confirmatoire</strong> permet de<br />
tester des modèles comportant de tels postulats, s’ils sont jugés appropriés.<br />
4. Finalement, le chercheur doit déterminer à l'avance s'il y aura des corrélations<br />
entre certains facteurs uniques et si oui, entre lesquels de ces facteurs. Ici, le<br />
modèle postule que les erreurs de mesure 2 et 3 seront corrélées. Puisque notre<br />
modèle ne permet pas d'expliquer cette corrélation, il est très important de<br />
pouvoir fournir une justification théorique de cette situation. Nous verrons<br />
plus loin qu'il est extrêmement tentant de permettre de telles corrélations entre<br />
les erreurs de mesure dans le seul but d'arriver à un modèle qui corresponde<br />
plus et mieux à nos données; c'est d’ailleurs l'une des nombreuses tentations à<br />
laquelle il faut tenter de résister dans l'utilisation de LISREL.<br />
La logique de l'analyse <strong>factorielle</strong> <strong>confirmatoire</strong><br />
Nous pouvons maintenant faire le lien avec ce qui a été mentionné précédemment<br />
concernant les propriétés mathématiques des structures de covariance: il est possible<br />
de reproduire les éléments de la matrice de corrélation initiale (ou matrice de variance /<br />
covariance) en utilisant les poids associés aux différents paramètres de notre modèle<br />
théorique. Chaque lien que nous postulons dans notre modèle pose certaines<br />
contraintes qui détermineront notre capacité à reproduire adéquatement les patrons de<br />
corrélation entre les données observées.<br />
<strong>L'analyse</strong> sera <strong>confirmatoire</strong> dans la mesure où, tout en tenant compte des<br />
contraintes imposées a priori à notre modèle, il sera possible de reproduire<br />
adéquatement la matrice de variance-covariance initiale. Si notre modèle théorique<br />
est mal spécifié (p. ex., qu'il postule des liens qui ne sont pas effectifs ou encore qu'il<br />
ignore des liens importants), la matrice de variance-covariance reproduite s’éloignera<br />
substantiellement du patron de variance/covariance observé entre les variables.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 19 9 janvier, 2006
Évidemment, le nombre de coefficients à reproduire peut être assez élevé puisque qu'il<br />
est fonction du nombre de variables observées, selon la règle suivante, où k correspond<br />
au nombre de variables observées:<br />
k(k + 1) / 2<br />
Ainsi, un modèle comportant six variables observées donnera lieu à une matrice de<br />
corrélation — ou de variance/covariance — comportant 21 éléments à reproduire, alors<br />
qu'un modèle à 24 variables observées entraînera la reproduction d'une matrice de 300<br />
éléments. On peut imaginer facilement que certains éléments de la matrice initiale<br />
seront moins bien reproduits que d'autres et que la comparaison des termes<br />
correspondants entre la matrice initiale et la matrice reproduite entraînera des<br />
"résiduels" plus ou moins élevés. Au delà d'une simple inspection de la taille de ces<br />
résiduels, l'avantage d'utiliser un programme comme LISREL tient au fait qu'il fournit un<br />
ensemble de tests statistiques permettant de décider si le modèle postulé rend compte<br />
adéquatement ou non des données.<br />
Mise en garde importante : Il est assez facile d'imaginer qu'un modèle qui ne<br />
réussit pas à reproduire adéquatement les données observées doive être rejeté.<br />
C'est d'ailleurs la plus grande force de LISREL: pouvoir démontrer qu'un modèle<br />
théorique est incompatible avec les données que nous avons recueillies. À<br />
l'inverse, le fait qu'un modèle réussisse à rendre compte des covariations à<br />
l'intérieur des données observées ne garantit en rien que ce modèle soit<br />
adéquat. Il est possible qu'un ou plusieurs autres modèles alternatifs produisent<br />
une solution de qualité identique ou même supérieure à notre propre solution.<br />
Tout au plus LISREL peut-il nous aider à démontrer que notre modèle est<br />
plausible, comme d'autres modèles alternatifs pourraient l'être également. C'est<br />
au chercheur qu'incombe la responsabilité d'évaluer la pertinence et la plausibilité<br />
de son modèle en le recadrant à l'intérieur d'un contexte théorique riche et articulé.<br />
L'environnement LISREL<br />
LISREL est un acronyme de « Linear structural relations ». C'est à la fois un<br />
modèle mathématique et un logiciel permettant d'expliquer un patron de relations<br />
linéaires entre plusieurs variables. Contrairement à beaucoup d'autres techniques<br />
d'analyse, LISREL peut être utilisé même si le chercheur n'a pas accès aux données<br />
brutes ou aux scores individuels du projet qui l'intéresse. Minimalement, vous devrez<br />
avoir en votre possession la matrice de corrélation ou, de préférence, la matrice de<br />
variance/covariance à analyser. Si de plus vous connaissez les moyennes de<br />
l’échantillon pour chacune des variables présentes dans la matrice, vous serez en<br />
mesure d’effectuer des analyses encore plus complexes. Par exemple, nous verrons<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 20 9 janvier, 2006
plus loin comment il est possible de comparer et de mettre à l’épreuve un même<br />
modèle auprès de différents groupes de participants. Cette « perspective multi<br />
groupes » n’est possible que si les moyennes des variables sont disponibles en plus<br />
des variances et des covariances.<br />
Distinction entre Lisrel et Prelis<br />
Pour bien exploiter l'environnement du logiciel LISREL il faut savoir que la version<br />
8.7 pour Windows intègre maintenant dans une même interface le module PRELIS et le<br />
module LISREL proprement dit. Le module PRELIS est un utilitaire qui permet de<br />
travailler un ensemble de données brutes et de sauvegarder les matrices de corrélation<br />
ou de variance/covariance qui pourront être ensuite utilisées comme données soumises<br />
au module LISREL. PRELIS est capable de lire des données individuelles sous<br />
plusieurs formats et peut même importer des fichiers produits par d'autres logiciels,<br />
comme SPSS par exemple. Nous n'utiliserons pas ce module PRELIS dans le cadre du<br />
cours. La totalité des exemples vus en classe utiliseront des matrices déjà disponibles<br />
et analysables directement par LISREL. On accède à l’un ou l’autre des deux modules<br />
à travers une interface unique représentée dans l’écran suivant. Vous reconnaîtrez les<br />
deux boutons qui permettent de lancer l'un ou l'autre de ces deux modules; ces<br />
boutons se distinguent uniquement par la lettre L ou P superposée sur le « p'tit<br />
coureur » qui s'empressera d'exécuter vos instructions.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 21 9 janvier, 2006
Les langages Lisrel et Simplis<br />
Une autre particularité de l'environnement LISREL concerne les deux langages que<br />
l'on peut utiliser pour nos programmes. Alors que le langage LISREL original<br />
nécessitait de parler grec pour pouvoir identifier chacun des paramètres de nos<br />
modèles, il est maintenant possible de spécifier ces paramètres en se limitant à<br />
quelques phrases anglaises constituant l'essentiel du langage SIMPLIS. Ceux et celles<br />
qui ont fait l'apprentissage « à la dure » du langage LISREL apprécieront probablement<br />
pouvoir encore faire exécuter leurs programmes, dans leur forme originale. Voici un<br />
exemple de la syntaxe plutôt hermétique du langage Lisrel :<br />
TI Nine Psychological Variables - A Confirmatory Factor Analysis<br />
DA NI=9 NO=145 MA=CM<br />
SY='C:\Program Files\lisrel87s\SPLEX\EX5A.DSF'<br />
MO NX=9 NK=3 TD=SY<br />
LK<br />
Visual Verbal Speed<br />
FR LX(1,1) LX(2,1) LX(3,1) LX(4,2) LX(5,2) LX(6,2) LX(7,3) LX(8,3) LX(9,3)<br />
PD<br />
OU RS<br />
Figure 3.4. Exemple d’un programme en langage LISREL. Notez les références des variables utilisant<br />
des vecteurs et des matrices; par exemple LX(1,1) … LX(9,3).<br />
À l'inverse, on comprendra que la majorité des nouveaux utilisateurs de LISREL<br />
préféreront de beaucoup s'en tenir au langage SIMPLIS. Voici le même programme<br />
que précédemment transcrit cette fois selon la syntaxe SIMPLIS. :<br />
Nine Psychological Variables - A Confirmatory Factor Analysis<br />
Observed Variables<br />
'VIS PERC' CUBES LOZENGES 'PAR COMP' 'SEN COMP' WORDMEAN<br />
ADDITION COUNTDOT 'S-C CAPS'<br />
Correlation Matrix From File EX5.COR<br />
Sample Size 145<br />
Latent Variables: Visual Verbal Speed<br />
Relationships:<br />
'VIS PERC' - LOZENGES = Visual<br />
'PAR COMP' - WORDMEAN = Verbal<br />
ADDITION - 'S-C CAPS' = Speed<br />
Number of Decimals = 3<br />
Wide Print<br />
Print Residuals<br />
Path Diagram<br />
End of Problem<br />
Figure 3.5. Exemple d’un programme en langage SIMPLIS. Notez entre autres avantages que les<br />
variables portent maintenant des noms beaucoup plus faciles à identifier.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 22 9 janvier, 2006
Les différents types de fichiers du système Lisrel<br />
L’environnement Lisrel est particulièrement intimidant en raison du nombre et de la<br />
diversité des fichiers que vous allez rencontrer. On peut d’abord distinguer les fichiers<br />
qui comportent des commandes spécifiques à l’un ou l’autre des différents modules de<br />
Lisrel. Dans ce cours nous utiliserons essentiellement les fichiers portant l’extension<br />
.spl et se référant à la syntaxe Simplis.<br />
Extension<br />
*.pr2<br />
*.ls8<br />
*.spl<br />
Type de contenus<br />
Fichier de commandes PRELIS<br />
Fichier de commandes LISREL<br />
Fichier de commandes SIMPLIS<br />
D’autres fichiers sont créés par Lisrel pour conserver soit les données brutes, soit<br />
les données systèmes qui sont elles-mêmes produites en mode « projets interactifs ».<br />
Vous n’aurez pas à utiliser ces fichiers dans le cadre du cours puisque tous les<br />
exemples que nous examinerons porteront sur des matrices de corrélation ou de<br />
variance/covariance. À titre d’information, voici quand même les extensions spécifiques<br />
de ces fichiers :<br />
Extension<br />
*.psf<br />
*.dsf<br />
*.spj<br />
*.lpj<br />
Type de contenus<br />
Fichier de données brutes lisibles<br />
par PRELIS<br />
Fichier de données système (Data<br />
System File) lisible par LISREL ou<br />
SIMPLIS<br />
Fichier de projet SIMPLIS créé en<br />
mode interactif<br />
Fichier de projet Lisrel créé en<br />
mode interactif<br />
Finalement, l’exécution d’un programme SIMPLIS (ou LISREL) entraînera la<br />
production d’un fichier de résultats que vous voudrez généralement examiner et<br />
imprimer au besoin. À titre optionnel, vous voudrez aussi obtenir une représentation<br />
visuelle, c'est-à-dire un diagramme des chemins critiques correspondant au modèle mis<br />
à l’épreuve. Sachez qu’il est même possible d’amorcer l’analyse d’un modèle en créant<br />
d’abord sa représentation graphique, pour ensuite demander au système de générer<br />
pour vous le code syntaxique Lisrel ou Simplis.<br />
Extension<br />
*.out<br />
*.pth<br />
Type de contenus<br />
Fichier de résultats<br />
Graphique des chemins critiques<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 23 9 janvier, 2006
En plus des types de fichiers qui viennent d’être énumérés et qui sont propres à<br />
l’application Lisrel, vous pouvez aussi utiliser des fichiers en format texte conventionnel<br />
qui contiendront les matrices de corrélation ou de variance/covariance à analyser. Par<br />
exemple, si vous examinez le contenu du programme SIMPLIS présenté à la figure 3.5,<br />
vous remarquerez la présence de la ligne suivante : Correlation Matrix From File<br />
EX5.COR. Cette instruction informe LISREL que les données à analyser devront être<br />
lues directement à partir du fichier EX5.COR qui comporte la portion triangulaire<br />
inférieure de la matrice de corrélation.<br />
1<br />
.318 1<br />
.436 .419 1<br />
.335 .234 .323 1<br />
.304 .157 .283 .722 1<br />
.326 .195 .35 .714 .685 1<br />
.116 .057 .056 .203 .246 .17 1<br />
.314 .145 .229 .095 .181 .113 .585 1<br />
.489 .239 .361 .309 .345 .28 .403 .512 1<br />
Figure 3.6. Exemple du format de lecture d’une matrice de corrélation. Ce fichier doit être créé à l’aide<br />
d’un éditeur de texte comme le Bloc-notes de Windows.<br />
En plus des extensions spécifiques à Lisrel, on peut donc ajouter deux derniers<br />
types de fichiers pour lesquels vous auriez avantage à respecter les conventions<br />
suivantes :<br />
Extension<br />
*.cor<br />
*.cov<br />
Type de contenus<br />
Fichier de données contenant une<br />
matrice de corrélation<br />
Fichier de données contenant une<br />
matrice de variance/covariance<br />
Les commandes les plus utiles du langage SIMPLIS<br />
L’utilisation du logiciel Lisrel est devenue beaucoup plus facile depuis l’ajout du langage<br />
SIMPLIS qui permet une approche un peu plus conviviale. Les commandes sont quand<br />
même nombreuses et leur utilisation est encore plutôt capricieuse. Le tableau suivant<br />
survole une portion des commandes les plus utiles. Vous pouvez obtenir des<br />
précisions et de l’aide additionnelle sur toutes les autres commandes à partir du menu<br />
déroulant de Lisrel en suivant la séquence suivante : Help ¬ Contents ¬ Syntax Files<br />
¬ SIMPLIS ¬ Contents…<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 24 9 janvier, 2006
Tableau 3.6<br />
Synthèse des commandes SIMPLIS les plus utiles..<br />
Commandes Statut Remarques<br />
[Title]<br />
Optionnel - Un programme SIMPLIS peut commencer par une ou plusieurs lignes de titre.<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- Le mot «TITLE» lui-même n'est pas obligatoire.<br />
- La fin du titre est indiquée par une nouvelle ligne qui commence par Observed<br />
Variables<br />
Observed Variables [from File filename]<br />
Obligatoire<br />
- Cette commande précise le nombre et l'ordre des variables observées.<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- Chaque variable doit avoir un nom unique dont les huit premiers caractères seront<br />
conservés et imprimés par le programme.<br />
- Une convention suggérée est d'utiliser des lettres majuscules pour les variables<br />
observées. Exemples: BECK, 'QI VERBAL', BEM1, ANXIETY1<br />
- Il est possible de lire les noms des variables à partir d'un fichier.<br />
Covariance Matrix [from File filename]<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
ou<br />
Correlation Matrix [from File filename]<br />
Obligatoire<br />
- A moins de situations exceptionnelles les données soumises à LISREL sont des<br />
matrices de variance/covariance ou des matrices de corrélation.<br />
- Ces matrices sont presque toujours préparées à l'avance dans des fichiers externes<br />
à l’aide d’un éditeur de texte comme le Bloc-notes de Windows.<br />
- On donne seulement le triangle inférieur de la matrice (incluant la diagonale).<br />
Attention! Assurez-vous d’utiliser des points ou des virgules comme séparateurs des<br />
valeurs décimales en conformité avec les attributs régionaux de votre environnement<br />
Windows. Par exemple:<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 25 9 janvier, 2006
- - - - - - - - - - - - - - - - - - - - - -<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
covariance corrélation<br />
38.60 ou 1.0<br />
13.63 16.96 .899 1.0<br />
24.62 8.00 27.22 .654 .758 1.0<br />
5.60 4.81 6.27 6.16 .725 .839 .439 1.0<br />
- Certaines analyses exigent que l'on ait en plus les moyennes et les écarts-types de<br />
toutes les variables observées.<br />
Sample Size = Obligatoire - Il faut indiquer la taille de l'échantillon qui a servi à calculer la matrice de corrélation<br />
ou de covariance et ce, même si vous n’utilisez pas les données individuelles.<br />
Exemple: Sample Size = 305<br />
Latent Variables: Obligatoire - Chaque variable latente doit avoir un nom unique dont seuls les huit premiers<br />
caractères seront conservés.<br />
- Une convention suggérée est de mettre seulement la première lettre en majuscule.<br />
Exemples: Desir, Perception, Motivation, Succes<br />
- Une variable latente ne peut pas porter le même nom qu'une variable observée.<br />
Toutefois, il faut se rappeler que MEMOIRE et Memoire sont deux noms différents et<br />
qu’ils peuvent donc coexister dans le même programme.<br />
- Il est possible d'utiliser LISREL pour faire des analyses acheminatoires ne<br />
comportant aucune variable latente; dans ce cas particulier la commande «Latent<br />
Variables» est inutile et doit être éliminée.<br />
Relationships: Obligatoire - Cette commande précise quelle(s) variable(s) dépend(ent) de quelle(s) variable(s).<br />
- Une variable nommée à gauche du signe = correspond à une variable dépendante<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 26 9 janvier, 2006
- - - - - - - - - - - - - - - - - - - - - -<br />
qui sera affectée par la ou les variables nommées à droite du signe =.<br />
- - - - - - - - - - - - - - - - - - - - - -<br />
- Exemples où deux variables latentes influencent des sous-ensembles différents de<br />
six variables observées:<br />
TEST1 TEST2 TEST3 TEST7 = Qiverbal<br />
TEST4 TEST5 TEST6 TEST7 = Qinonverbal<br />
- Exemple où une variable latente influence deux autres variables latentes:<br />
Qiverbal Qinonverbal = Intelligence<br />
Let the Errors between VarA and VarB<br />
Correlate<br />
Optionnel<br />
- Par défaut, les modèles LISREL assument que tous les termes d'erreurs sont<br />
indépendants les uns des autres (non corrélés).<br />
- Il est possible de libérer certains de ces paramètres et de les faire estimer par<br />
LISREL. Une telle procédure doit s'appuyer sur des justifications théoriques solides<br />
et ne doit pas être utilisée simplement pour augmenter l'adéquation entre le modèle<br />
et les données analysées.<br />
Set the Covariance of Ksi1 - Ksi3 to 0.0<br />
or<br />
Set the Correlation of Ksi1 - Ksi3 to 0.0<br />
Optionnel<br />
- Par défaut, les variables latentes exogènes (Ksi) sont intercorrélées.<br />
- Si notre modèle postule que la corrélation (ou la covariance) entre certaines<br />
variables Ksi est inexistante, il est possible de fixer ce(s) paramètre(s) à 0.0<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 27 9 janvier, 2006
[Number of Decimals = 3] Optionnel - Le nombre de décimales est 2 par défaut.<br />
- Il est possible d'exiger plus de précision.<br />
[Path Diagram] Optionnel Cette commande permet d'obtenir un diagramme du modèle. Lorsque le diagramme<br />
est à l'écran il est possible d'ajouter (ou d'éliminer) des liens entre les variables et de<br />
réestimer le modèle. Un diagramme peut également être sauvegardé (*.pth) et<br />
réutilisé plus tard pour démarrer une analyse. Il est aussi possible, à partir d'un<br />
diagramme de modèle de faire générer le code LISREL ou le code SIMPLIS<br />
correspondant.<br />
[Print Residuals] Optionnel - LISREL présente les valeurs résiduelles de façon succincte.<br />
- Cette commande provoquera l'impression de toutes les valeurs résiduelles; la sortie<br />
imprimée devient TRÈS volumineuse, mais permet d'examiner avec minutie les<br />
sections du modèle qui ne sont pas adéquates.<br />
[Lisrel output] Optionnel - Cette commande permet de produire l'output selon le format LISREL plutôt que le<br />
format SIMPLIS. Dans certaines circonstances on choisira ce format car quelques<br />
statistiques (comme les estimés des effets directs et indirects) ne sont pas<br />
disponibles dans le format SIMPLIS par défaut.<br />
[End of Problem] Optionnel - Bien que cette dernière commande soit optionnelle, son usage est fortement<br />
recommandé.<br />
- La commande devient obligatoire si nous désirons placer plusieurs programmes<br />
SIMPLIS, les uns à la suite des autres, dans un même fichier. Ce sera le cas dans<br />
les analyses multi-groupes.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 28 9 janvier, 2006
Les estimés des paramètres en format SIMPLIS<br />
Par défaut LISREL utilise la méthode du « Maximum Likelihood » (ML) pour<br />
estimer les différents paramètres d'un modèle. Bien qu'il existe six autres méthodes<br />
d'estimation disponibles, la méthode ML est de loin la plus populaire et la plus<br />
fréquemment utilisée. Il s'agit d'une procédure itérative qui permet d'estimer<br />
simultanément tous les paramètres d'un modèle en tenant compte de l'ensemble des<br />
équations définissant le modèle. Sommairement, on peut décrire la procédure comme<br />
suit: Une méthode d'estimation rapide « Two-Stage Least Squares » (TSLS) est<br />
d'abord utilisée pour déterminer des valeurs de départ pour chacun des paramètres à<br />
estimer et la matrice des valeurs résiduelles est alors calculée en comparant la matrice<br />
de variance/covariance impliquée et la matrice de données initiales. Le programme<br />
calcule alors un nouvel ensemble amélioré de valeurs pour chacun des paramètres et<br />
évalue à nouveau la matrice résiduelle... Ce processus se poursuit de façon itérative<br />
jusqu'à ce qu'il y ait convergence vers la solution optimale. Au terme de ce processus,<br />
on est assuré qu'aucun ajustement des paramètres ne pourrait donner une meilleure<br />
approximation de la matrice de variance/covariance initiale.<br />
La sortie de résultats en format SIMPLIS donne sous forme d'équations<br />
l'ensemble des paramètres du modèle de mesure. Ainsi, pour chaque variable<br />
indicatrice (ou observée) une équation donne les pondérations associées aux variables<br />
latentes ayant une influence sur cette variable observée. En fait, la sortie imprimée<br />
fournit trois informations particulières: a) l'estimé non-standardisé du paramètre, b)<br />
l'erreur de mesure du paramètre et c) la valeur t permettant de vérifier la signification<br />
du paramètre, à savoir s'il est différent de zéro.<br />
Ainsi, l'encadré suivant présente un extrait de la sortie de résultats pour le<br />
programme Nine Psychological Variables (ex5A.spl). On peut voir que la variable<br />
manifeste « VIS PERC » est influencée selon une pondération de .672 fois la variable<br />
latente « Visual. » Ce coefficient s'interprète de la façon habituelle; il correspond au<br />
changement dans la variable dépendante (ici VIS PERC) produit par un changement<br />
d'une unité dans la variable latente Visual lorsque toutes les autres variables de<br />
l'équation sont contrôlées. En divisant le paramètre .672 par son erreur de mesure<br />
0.0910, on obtient la valeur t permettant de tester l'hypothèse que le paramètre est<br />
différent de zéro; les valeurs t plus grande que 1.96 sont significatives à p
Faites l'exercice d'examiner la deuxième équation dans l'encadré. Que pouvezvous<br />
dire de l'influence des variables latentes Visual, Verbal et Speed sur la mesure<br />
observée des CUBES Quel est le pourcentage de variance expliquée pour la variable<br />
CUBES <br />
LISREL Estimates (Maximum Likelihood)<br />
LISREL Estimates (Maximum Likelihood)<br />
Measurement Equations<br />
VIS PERC = 0.672*Visual, Errorvar.= 0.548 , R² = 0.452<br />
(0.0910) (0.0971)<br />
7.388 5.645<br />
CUBES = 0.513*Visual, Errorvar.= 0.737 , R² = 0.263<br />
(0.0924) (0.101)<br />
5.551 7.300<br />
LOZENGES = 0.684*Visual, Errorvar.= 0.532 , R² = 0.468<br />
(0.0910) (0.0974)<br />
7.516 5.461<br />
PAR COMP = 0.867*Verbal, Errorvar.= 0.248 , R² = 0.752<br />
(0.0702) (0.0515)<br />
12.348 4.819<br />
SEN COMP = 0.830*Verbal, Errorvar.= 0.311 , R² = 0.689<br />
(0.0715) (0.0537)<br />
11.608 5.787<br />
WORDMEAN = 0.826*Verbal, Errorvar.= 0.318 , R² = 0.682<br />
(0.0716) (0.0541)<br />
11.525 5.882<br />
ADDITION = 0.660*Speed, Errorvar.= 0.564 , R² = 0.436<br />
(0.0853) (0.0874)<br />
7.742 6.458<br />
COUNTDOT = 0.801*Speed, Errorvar.= 0.359 , R² = 0.641<br />
(0.0846) (0.0896)<br />
9.464 4.006<br />
S-C CAPS = 0.677*Speed, Errorvar.= 0.542 , R² = 0.458<br />
(0.0851) (0.0869)<br />
7.949 6.235<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 30 9 janvier, 2006
Remarquez maintenant comment les différents paramètres reproduits dans<br />
l’encadré ci-haut se retrouvent également dans le graphique représentant le modèle mis<br />
à l’épreuve. On y voit clairement a) les variances d’erreur de chaque variable<br />
manifeste, c'est-à-dire la proportion de variance qui n’est pas expliquée par l’influence<br />
des facteurs communs, b) les coefficients de régression représentant l’influence des<br />
variables latentes sur leurs variables manifestes respectives et c) la variance de<br />
chacune des trois variables latentes puisqu’il s’agit ici de variables standardisées<br />
possédant chacune une unité de variance.<br />
Les indices d'ajustement dans les sorties de résultats en format SIMPLIS<br />
LISREL fournit un nombre impressionnant d'indices permettant d'évaluer le niveau<br />
d'ajustement d'un modèle. D'ailleurs il est reconnu que la qualité d'un modèle ne peut<br />
pas se décider sur la base d'un indice unique. En situation de recherche « réelle » il n'est<br />
pas rare d'être confronté à des indices contradictoires, les uns tendant à invalider le<br />
modèle, les autres suggérant au contraire que le modèle est acceptable. Dans un tel cas,<br />
il est d'autant plus important d'appuyer notre conclusion sur plusieurs indices<br />
convergents. Voici quelques commentaires sur les indices d’ajustement, dans l’ordre où<br />
ils sont produits dans une analyse typique :<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 31 9 janvier, 2006
Goodness of Fit Statistics<br />
Degrees of Freedom = 24<br />
Minimum Fit Function Chi-Square = 52.626 (P = 0.000648)<br />
d l = ½ k(k + 1) - t<br />
où k = nombre de variables observées et<br />
t = nombre de paramètres estimés<br />
Indice le plus connu testant l'hypothèse nulle voulant que le modèle<br />
rende compte parfaitement des données. Un χ 2 significatif indique<br />
qu’il y a des écarts significatifs entre les prédictions du modèle et les<br />
données observées.<br />
Un problème avec ce premier indice, c'est que la taille des<br />
échantillons est telle que souvent des différences significatives<br />
seront détectées par le χ 2 , alors que ces différences ne sont pas<br />
« théoriquement » de grande importance. Il est donc possible de<br />
conserver un modèle même en présence d'un χ 2 significatif.<br />
Normal Theory Weighted Least Squares<br />
Chi-Square = 49.966 (P = 0.00143)<br />
Estimated Non-centrality Parameter (NCP) = 25.966<br />
90 Percent Confidence Interval for NCP = (9.461 ;<br />
50.223)<br />
Population Discrepancy Function Value (F 0 ) = 0.180<br />
Même interprétation que le χ 2 précédent.<br />
Correspond au χ 2 précédent moins (-) le nombre de degrés de<br />
liberté. Plus cette valeur est grande, plus il y a divergence entre le<br />
modèle et les données.<br />
Intervalle de confiance à 90% de l'indice NCP.<br />
Contrairement au χ 2 , cet indice ne pose pas comme postulat que le<br />
modèle tienne parfaitement dans la population. Aussi, puisque F 0<br />
décroît généralement à mesure que des paramètres sont ajoutés au<br />
modèle, il est recommandé de tenir compte du nombre de dl.<br />
90 Percent Confidence Interval for F 0 = (0.0657 ; 0.349) Intervalle de confiance à 90% de l'indice F 0 .<br />
Root Mean Square Error of Approximation (RMSEA) = 0.0867 S'obtient en prenant la racine carrée de F 0 / dl. Cet indice évalue<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 32 9 janvier, 2006
lui aussi l'adéquation entre la matrice reproduite et la matrice<br />
observée tout en tenant compte la complexité du modèle (en<br />
divisant par le nombre de degrés de liberté).<br />
< 0.05 l'ajustement est bon; entre 0.05 et 0.08 il est raisonnable;<br />
entre 0.08 et 0.10 il est médiocre; et > 0.10 il est inacceptable.<br />
90 Percent Confidence Interval for RMSEA = (0.0523 ;<br />
0.121)<br />
P-Value for Test of Close Fit (RMSEA S 0.05) = 0.0409<br />
Intervalle de confiance à 90% de l'indice RMSEA.<br />
Teste l'hypothèse nulle que RMSEA est
sensible aux écarts à la normalité et n'est pas très stable si n < 200.<br />
Model AIC = 91.966<br />
Saturated AIC = 90.000<br />
Independence CAIC = 711.249<br />
Model CAIC = 175.477<br />
Saturated CAIC = 268.953<br />
AIC dans le modèle mis à l'épreuve.<br />
AIC dans le modèle saturé.<br />
Consistent version of AIC. Le CAIC tient compte de la taille de<br />
l'échantillon, mais il s'interprète de la même façon que le AIC.<br />
Une plus petite valeur sur ce critère correspond à un meilleur<br />
modèle.<br />
CAIC dans le modèle mis à l'épreuve.<br />
CAIC dans le modèle saturé.<br />
Normed Fit Index (NFI) = 0.920 Voir plus loin le BBI (« Bentler & Bonett normed fit index »)<br />
Non-Normed Fit Index (NNFI) = 0.931<br />
Le NNFI appartient à la famille des indices relatifs d'ajustement qui<br />
permettent de vérifier si un modèle produit un meilleur ajustement<br />
qu'un modèle de comparaison (généralement le modèle nul).<br />
Exceptionnellement le NNFI peut prendre une valeur > 1.<br />
Parsimony Normed Fit Index (PNFI) = 0.613<br />
Comparative Fit Index (CFI) = 0.954<br />
Incremental Fit Index (IFI) = 0.955<br />
Relative Fit Index (RFI) = 0.880<br />
Root Mean Square Residual (RMR) = 0.0755<br />
Le PNFI produit généralement des valeurs plus faibles que le NNFI.<br />
Diamantopoulos et Siguaw mentionnent que le CFI et le NNFI<br />
devraient être privilégiés comme indices relatifs d'ajustement.<br />
Correspond à la moyenne des résiduels entre les covariances observées et<br />
les covariances impliquées par le modèle. Dans le cas des matrices de<br />
corrélation l'indice RMR devrait être < 0.05. Pour les matrices de<br />
covariance, il faut adapter cette règle en l’appliquant au RMR<br />
standardisé car la taille du RMR brut est alors influencée par la métrique<br />
des mesures.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 34 9 janvier, 2006
Standardized RMR = 0.0755<br />
Goodness of Fit Index (GFI) = 0.928<br />
Adjusted Goodness of Fit Index (AGFI) = 0.866<br />
Parsimony Goodness of Fit Index (PGFI) = 0.495<br />
Correspond à la moyenne des résiduels standardisés. Un score<br />
résiduel individuel dépassant 2.58 en valeur absolue est considéré<br />
important. Une valeur moyenne se situant en bas de 0.05 indique un<br />
ajustement acceptable.<br />
Le GFI est un indice absolu d'ajustement qui ne requiert pas de<br />
comparaison entre plusieurs modèles. Le GFI indique la proportion de<br />
variance/covariance reproduite par le modèle. Cet indice doit être ><br />
0.90 pour qu'un modèle soit jugé acceptable.<br />
Le AGFI correspond au GFI, mais avec un ajustement pour le nombre<br />
de degrés de liberté du modèle.<br />
Quant au PGFI , il propose un autre type d'ajustement tenant en<br />
compte la complexité du modèle. Cet indice est souvent beaucoup<br />
plus faible que le GFI. Certains modèles sont même acceptés avec des<br />
PGFI dans l'ordre de 0.5.<br />
Devant cette liste impressionnante d'indices disponibles, Diamantopoulos et Siguaw<br />
(2000) suggèrent qu'une décision éclairée devrait pouvoir être prise concernant la qualité<br />
d'ajustement d'un modèle en s'appuyant sur le χ 2 de même que sur les indices suivants:<br />
RMSEA, ECVI, RMR standardisés, GFI et CFI. Plus récemment, Kline (2005) va exactement<br />
dans le même sens et recommande les quatre indices suivants : a) le χ 2 du modèle<br />
« minimum fit function chi-square », b) le RMSEA, en incluant son intervalle de confiance à<br />
90%, c) le CFI et d) le RMR standardisé.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 35 9 janvier, 2006
Évaluation de la qualité des modèles<br />
En plus de tenir compte des indices dont il vient d’être fait mention, le chercheur averti<br />
devrait être à l’affût de toutes indications susceptibles de révéler l’inadéquacité d’un<br />
modèle. Voici quelques points importants à considérer :<br />
• L'ordre de grandeur des paramètres estimés<br />
Il est clair que si l'un ou l'autre des paramètres estimés par LISREL se situe<br />
en en dehors des valeurs raisonnables, ceci est déjà une indication formelle<br />
que le modèle n'est pas adéquat.<br />
Les cas les plus évidents sont:<br />
- des variances négatives<br />
- des corrélations > 1.00<br />
- des matrices de corrélation ou de covariance singulières « non positive<br />
definite »<br />
D'autres problèmes moins évidents peuvent être décelés par les points<br />
suivants:<br />
- taille excessive ( > 5.00) des erreurs standards des paramètres estimés<br />
- fortes corrélations entre paramètres estimés<br />
• Adéquation du modèle de mesure<br />
La qualité du modèle de mesure peut être évaluée en tenant compte de sa<br />
capacité à rendre compte de la variation au niveau des mesures observées:<br />
- Vérifier les R 2 pour chaque variable observée. Ces valeurs sont des<br />
indices de fidélité de chaque variable observée en tant que mesure de sa<br />
variable latente. Ces valeurs doivent être positives et tendre vers 1.0.<br />
• Indices subjectifs d'ajustement du modèle global.<br />
En tenant compte des problèmes soulevés précédemment avec<br />
l'interprétation des χ 2 , plusieurs auteurs ont proposé de nouveaux indices<br />
plus subjectifs:<br />
- « rapport Χ 2 / dl » : Ce rapport ne devrait pas excéder 2.00 (bien que<br />
certains auteurs acceptent jusqu'à 5.00)<br />
- BBI (« Bentler & Bonett normed fit index ») : Cet indice compare<br />
l'ajustement obtenu à l'aide d'un modèle théorique donné en l'opposant à<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 36 9 janvier, 2006
l'ajustement obtenu par un modèle dit « de comparaison » (connu souvent<br />
sous l'appellation « modèle nul »). Un indice supérieur à .90 est acceptable.<br />
Le Χ 2 du modèle nul apparaît sous le nom « Chi-square for independence<br />
model».<br />
Le calcul du BBI n'était pas directement disponible dans les versions<br />
précédentes de LISREL. Il fallait le calculer à la main en comparant les Χ 2<br />
obtenus dans le modèle nul (F 0 ) et le modèle qui nous intéressait (F 1 ):<br />
BBI = (F 0 - F 1 ) / F 0<br />
Cet indice est maintenant disponible directement dans les résultats produits<br />
par LISREL, sous le nom de « Normed fit index NFI »<br />
• Indices d'ajustement des paramètres individuels.<br />
Pour chacun des paramètres évalués par LISREL (ceux dits "libres"), il est<br />
possible d'obtenir une valeur t indiquant si le paramètre est<br />
significativement différent de zéro. En général les valeurs > 2.00 sont<br />
considérées significatives. Cependant une grande controverse existe sur<br />
l'utilisation de ces statistiques lorsque des matrices de corrélation sont<br />
analysées. Les valeurs t risquent de ne pas être exactes lorsque l’analyse<br />
porte sur des matrices de corrélation.<br />
• Indices de modification.<br />
Enfin, pour chacun des paramètres "fixes" LISREL fournit un indice de<br />
modification (MI) correspondant à la "baisse attendue du 02 si ce paramètre<br />
spécifique était libéré". Ces indices de modification peuvent donc être utiles<br />
pour localiser des paramètres possiblement mal spécifiés dans notre<br />
modèle...<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 37 9 janvier, 2006
Références<br />
Aiken, L. S., West, S. G., Sechrest, L., & Reno, R. (1990). Graduate training in<br />
statistics, methodology, and measurement in psychology: A survey of Ph.D.<br />
programs in North America. American Psychologist, 45, 721-734.<br />
Bagozzi, R.P., & Heatherton, T.F. (1994). A general approach to representing<br />
multifaceted personality constructs : Application to state self-esteem. Structural<br />
Equation Modeling, 1(1), 35<br />
Diamantopoulos, A., & Siguaw, J. A. (2000). Introducing LISREL. Thousand Oaks, CA :<br />
Sage.<br />
Hertzog, C., Hultsch, D. F., & Dixon, R. A. (1989). Evidence for the convergent validity<br />
of two self-report metamemory questionnaires. Developmental Psychology, 25,<br />
687-700.<br />
Kline, R. B. (2005). Principles and practice of structural equation modeling (2 e éd). New<br />
York: Guilford Press.<br />
Maslach, C., & Jackson, S. (1986). Maslach Burnout Inventory manual (2 e éd.). Palo<br />
Alto, CA: Consulting Psychologists Press.<br />
Miyake, A., Friedman, N. P., Emerson, M. J., Witzki, A. H., & Howerter, A. (2000). The<br />
unity and diversity of executive functions and their contributions to complex “frontal<br />
lobe” tasks: A latent variable analysis. Cognitive Psychology, 41, 49-100.<br />
Pedhazur, E. J., & Pedhazur Schmelkin, L. (1991). Measurement, design, and analysis:<br />
an integrated approach. Hillsdale, NJ : LEA.<br />
Yadama, G. N., & Drake, B. (1995). Confirmatory factor analysis of the Maslach<br />
burnout inventory. Social Work Research, 19, 184-192.<br />
_____________________________________________________________________________<br />
© Tous droits réservés, Jacques Baillargeon Page 38 9 janvier, 2006