28.06.2013 Views

KONINKLIJKE ACADEMIE VOOR OVERZEESE WETENSCHAPPEN ...

KONINKLIJKE ACADEMIE VOOR OVERZEESE WETENSCHAPPEN ...

KONINKLIJKE ACADEMIE VOOR OVERZEESE WETENSCHAPPEN ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

— 329 —<br />

recueillies à cette occasion éclairera judicieusement son analyse ou sa résolution.<br />

Il est judicieux de souligner combien un traitement statistique ne peut être dissocié<br />

du contexte dans lequel ces données ont été engendrées.<br />

Une deuxième remarque mérite d’être formulée: on ne construit pas des données<br />

réelles pour justifier l’intérêt d’une méthode statistique. C’est cette dernière<br />

qu’il faut rechercher ou élaborer, afin de pouvoir traiter convenablement ces<br />

données en vue de l’objectif poursuivi.<br />

Vient ensuite une constatation. Des données peuvent être cueillies ou<br />

recueillies, construites ou produites: elles sont rarement «données»! Et même si<br />

elles le sont, elles méritent d’être toujours accompagnées de la réponse à la question:<br />

«d’où viennent-elles?» On ne saurait trop insister sur le fait qu’un bon traitement<br />

de données nécessite de s’interroger d’abord sur leur(s) origine(s), sur<br />

leurs qualités.<br />

Il existe principalement trois moyens importants de collecter ou de produire<br />

des données: le relevé de faits observables (données démographiques, relevés<br />

météorologiques, dénombrements, documents commerciaux, ...), qui se réalise<br />

dans notre environnement ou dans celui de personnes chargées de ce recueil,<br />

Y enquête, qui permet d’obtenir des informations dont l’existence ne peut être<br />

matérialisée qu’à travers des questions ou des interviews, et l'expérimentation,<br />

qui fournit des données engendrées selon un protocole qui contrôle les conditions<br />

de leur production — c’est en tout cas son objectif!<br />

On dispose aussi d’autres sources: les premières sont respectables comme<br />

l’ensemble des témoignages du passé retrouvés dans des archives ou à l’occasion<br />

de fouilles archéologiques — elles sont qualifiées de traces par les statisticiens.<br />

Mais il en est d’autres moins glorieuses et qui contaminent notre environnement<br />

scientifique. Nous voulons parler ici, par exemple, de données dont il est notoire<br />

qu’elles sont imprécises, voire inexactes, ou encore d’enquêtes «par sondage»<br />

qui reposent sur un choix de répondants volontairement biaisé. Devant des données<br />

fausses ou mal choisies, il vaut mieux se passer d’un traitement dont l’interprétation<br />

pourrait nuire à la qualité de l’étude. Trop peu d’enseignements<br />

accordent suffisamment d’importance à ces questions.<br />

Passons ensuite au problème du choix des méthodes à insérer dans un premier<br />

cours. Parmi tous les traitements statistiques de données possibles, lesquels faut-<br />

il enseigner au départ? La manière traditionnelle de procéder privilégie la<br />

description d’un ensemble d’informations statistiques, suivie par l’exposé de<br />

méthodes d’estimation et de procédures de tests statistiques, elles-mêmes introduites<br />

par une présentation plus ou moins abstraite de notions de probabilité.<br />

Trop souvent, à notre goût, tout ceci est fait sans accorder suffisamment<br />

d’importance à l’objet de notre attention: la donnée et ses congénères. Pour<br />

corriger le tir, rien de tel que de réaliser une analyse initiale de ces données,<br />

quelle que soit leur origine. Cette étape est d’autant plus importante que les<br />

informations recueillies sont «douteuses» ou incomplètes. Par des moyens<br />

simples et facilement accessibles (graphiques, tableaux, tris, croisements, ...),

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!