04.01.2015 Views

L'audit financier€: historique, définition, objectif

L'audit financier€: historique, définition, objectif

L'audit financier€: historique, définition, objectif

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Chapitre V – Résultats de la recherche quantitative – Section 2<br />

construire une combinaison de variables indépendantes qui restitue du mieux possible la<br />

variabilité de la variable dépendante (Evrard et al. 1997). La question que la régression<br />

multiple cherche à résoudre est la suivante : connaissant les valeurs des variables<br />

indépendantes et la formule de leur combinaison, peut-on calculer la valeur du phénomène<br />

à expliquer Le terme « expliquer » doit donc être compris au sens statistique et non au<br />

sens causal. Il ne s’agit pas de dire que les variables indépendantes déterminent la variable<br />

dépendante, mais de dire que les phénomènes sont liés et que les variables indépendantes<br />

permettent de prédire la valeur de la variable dépendante.<br />

Dans ce sens, la régression multiple constitue une extension de l’analyse des<br />

corrélations : au lieu de mesurer la corrélation entre deux variables, elle mesure la<br />

corrélation entre une variable et un groupe de variables. Certains auteurs appellent<br />

d’ailleurs cette utilisation de la régression multiple « corrélation multiple ». L’intérêt de la<br />

régression multiple par rapport à l’étude des corrélations simples est qu’elle permet de<br />

prendre en compte les interrelations entre variables. Certaines corrélations significatives<br />

lorsque les variables sont prises deux à deux ne le sont plus lors d’une régression multiple,<br />

car leur corrélation était due à un effet de « concomitance » (spuriousness) 73 . En substance,<br />

la régression multiple permet de mettre au jour les relations significatives avec la variable à<br />

expliquer en contrôlant les effets des variables indépendantes les unes par rapport aux<br />

autres.<br />

Au niveau mathématique, l’<strong>objectif</strong> de la régression multiple est d’établir une<br />

relation entre la variable dépendante et les variables indépendantes qui permette de<br />

décomposer la variation de la variable dépendante en fonction des variables indépendantes.<br />

Cette relation est le plus souvent choisie comme linéaire. Si l’on appelle Y la variable<br />

dépendante et X i les variables indépendantes, la relation cherchée sera de la forme :<br />

Y = a 0 + a 1 X 1 + a 2 X 2 + … + a P X P + e<br />

où e est une fonction d’erreur (ou résidu) qui représente le fait que les variables<br />

indépendantes ne sont pas capables d’expliquer toute la variance de la variable dépendante.<br />

En pratique, une analyse de régression linéaire multiple calcule les valeurs des paramètres<br />

a i qui minimisent la somme des carrés des erreurs sur la population. Les statisticiens ont en<br />

effet démontré que ce sont les paramètres ainsi calculés qui fournissent le meilleur<br />

modèle 74 .<br />

73 La concomitance apparaît lorsqu’une corrélation apparente entre deux variables provient de la relation des<br />

deux variables avec une troisième variable, et non de leur relation spécifique.<br />

74 Il s’agit là de la régression utilisant la méthode des moindres carrés ordinaires (OLS, ordinary least<br />

squares). Cette méthode est la plus utilisée, mais nécessite le respect d’un certain nombre de conditions que<br />

nous devrons vérifier à l’occasion de nos traitements.<br />

257

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!