25.12.2012 Views

Dispense

Dispense

Dispense

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

320 CAPITOLO 6. STATISTICA MULTIVARIATA<br />

Le righe corrispodono quindi alle unità esaminate negli esperimenti, le colonne alle variabili.<br />

Da una simile tabella, piuttosto complessa, si vorrebbero estrarre informazioni sui legami tra<br />

le variabili. In realtà c’è un altro scopo parallelo, che ora con la tabella diventa evidente:<br />

esaminare le unità, le loro somiglianze, se sono divise in gruppi, ad esempio.<br />

Ora, data una simile matrice, si può calcolare la sua matrice di covarianza o di correlazione,<br />

in R coi comandi<br />

cov(A); cor(A)<br />

dove A è il nome dato alla matrice. Queste matrici sono la versione empirica di quelle<br />

teoriche ricordate sopra. Sono anch’esse matrici p p. Nella matrice cov(A), l’elemento di<br />

posto (i; j) è la covarianza empirica tra i vettori numerici<br />

xi;1 ::: xi;p<br />

xj;1 ::: xj;p<br />

ed è una stima della quantità teorica Cov (Xi; Xj).<br />

La matrice di correlazione empirica cor(A) fornisce immediatamente delle informazioni<br />

sui legami tra le variabili, a due a due, informazioni basate sulle osservazioni sperimentali di<br />

quelle particolari unità. Nella sezione di esercizi useremo continuamente questo comando e<br />

vedremo anche una visualizzazione del risultato.<br />

Per andare oltre, servono nuovi elementi di statistica. Il metodo delle componenti principali<br />

è quello che più immediatamente si a¢ anca al calcolo di cor(A). Esso raggiunge il<br />

duplice scopo di mostrare visivamente i legami tra le variabili, anche un po’ nel senso di<br />

gruppo (cioè non solo a due a due), ed al tempo stesso le relazioni tra le unità esaminate, gli<br />

idividui.<br />

Le relazioni tra le unità vengono approfondite tramite altre strategie, genericamente chiamate<br />

di classi…cazione e clustering, che hanno lo scopo di riconoscere se le unità sono ragionevolmente<br />

suddivisibili in due o più gruppi abbastanza omogenei; ed hanno nche lo scopo<br />

di assegnare a gruppi prestabiliti delle nuove unità. Esamineremo alcuni metodi per questi<br />

scopi.<br />

Tornando ai legami tra variabili, nasce spesso il desiderio di capire se certe variabili<br />

in‡uiscono su altre, scoprire quali sono le variabili che provocano certi e¤etti e quali invece<br />

sono irrilevanti. In linea di massima la statistica non è in grado di dimostrare la presenza<br />

di relazioni causa-e¤etto tra variabili; è in grado di quanti…care il legame che intercorre tra<br />

loro. Ipotizzando una relazione causa-e¤etto, la regressione lineare multipla quanti…ca tale<br />

relazione, scoprendo il valore dei coe¢ cienti di un modello input-output tra le grandezze<br />

in gioco, modello che poi può essere usato per scopi di previsione, ad esempio (ed infatti<br />

torneremo sulla previsione delle serie storiche anche con questo strumento).<br />

In…ne, vedremo che il metodo delle componenti principali scopre nuove variabili, a volte<br />

interpretabili nell’ambito dell’applicazione speci…ca a volte no, che racchiudono la reale variabilità<br />

dei dati più delle v.a. X1; :::; Xp originarie. In un certo senso, le nuove variabili<br />

possono essere pensate come dei predittori di quelle originarie. Su questa falsariga si innesta<br />

il metodo dell’analisi fattoriale, che date delle v.a. osservate X1; :::; Xp cerca di individuarne<br />

di nuove, non osservate, che siano fattori (predittori) di quelle osservate.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!