13.11.2014 Views

Un algoritmo per la regressione multipla con dati categoriali

Un algoritmo per la regressione multipla con dati categoriali

Un algoritmo per la regressione multipla con dati categoriali

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

UN ALGORITMO REGRESSIONE 3<br />

grezzi, (z 0 = z os , x i<br />

0<br />

= x i os ) mentre appare meno chiaro, viste le differenti proposte in<br />

letteratura, il modo di ottenere i parametri di scaling che trasformano le variabili<br />

<strong>categoriali</strong> in variabili "optimal scaled".<br />

Le proposte esistenti in letteratura (Morals, Young et al. 1976, Canals, Gifi 1981)<br />

stimano i parametri di scaling <strong>con</strong> vincoli sul<strong>la</strong> media, sul<strong>la</strong> varianza e sul<strong>la</strong> sca<strong>la</strong> di<br />

misurazione (nominale, ordinale, numerica) delle stesse, trovando una soluzione (t u ,<br />

y j u ) se<strong>con</strong>do un criterio di ottimo che <strong>per</strong>ò non tiene <strong>con</strong>to dei vincoli presenti in C j<br />

(soluzione non normalizzata), successivamente tali soluzioni vengono normalizzate<br />

(t # , y j # ) dando luogo a z os , x os .<br />

Morals (Young et al. 1976) propone di ricavare <strong>la</strong> i-esima componente di t u come<br />

<strong>la</strong> media dei punteggi di ∧ z (previsore lineare di z) appartenenti al<strong>la</strong> i-esima categoria<br />

del<strong>la</strong> variabile grezza z 0 , infine si normalizza <strong>la</strong> soluzione z u =G z t u in base ai vincoli<br />

supposti <strong>per</strong> ottenere z os .<br />

Successivamente si ricavano le variabili x i u dall'identità:<br />

z os = b 1 x 1<br />

0<br />

+…..+ b k x k<br />

0<br />

(4)<br />

iso<strong>la</strong>ndo i punteggi delle k variabili esplicative x i<br />

0<br />

dalle re<strong>la</strong>zioni algebriche nel<strong>la</strong> (4),<br />

tenendo fissi i parametri noti b i e le altre k-1 variabili x i 0 .<br />

La normalizzazione delle x i u (in x i os ) e di z u (in z os ) si ottiene proiettando i vettori z u<br />

ed x i u sullo spazio delle colonne delle rispettive matrici indicatore, costruite in modo<br />

da tener <strong>con</strong>to del<strong>la</strong> sca<strong>la</strong> di misurazione di ogni variabile (Young 1981).<br />

La normalizzazione di Morals richiede che <strong>la</strong> variabile dipendente e quelle<br />

indipendenti abbiano media nul<strong>la</strong> e varianza unitaria.<br />

Infine <strong>per</strong> l’aggiornamento dei parametri di <strong>regressione</strong> in una successiva<br />

iterazione si effettua una <strong>regressione</strong> multip<strong>la</strong> <strong>con</strong> le nuove variabili z os ed x i os e così<br />

via fino a <strong>con</strong>vergenza dell’<strong>algoritmo</strong>.<br />

Canals (van der Burg de Leeuw 1983) un <strong>algoritmo</strong> <strong>per</strong> <strong>la</strong> corre<strong>la</strong>zione canonica,<br />

che <strong>con</strong>sente <strong>la</strong> <strong>regressione</strong> <strong>con</strong> optimal scaling specificando una so<strong>la</strong> variabile nel<br />

se<strong>con</strong>do insieme, è equivalente a Morals <strong>per</strong> il passo di scaling (4) senza richiedere <strong>la</strong><br />

standardizzazione delle variabili indipendenti nel passo di normalizzazione che<br />

inficia <strong>la</strong> <strong>con</strong>vergenza dell’<strong>algoritmo</strong> Morals (Gifi 1981 pag 221).<br />

.<br />

2. La proposta<br />

Partendo dai valori iniziali delle categorie osservate si ottiene una stima iniziale<br />

delle variabili trasformate: z 0 , X 0 =(x 1 0 .....x k 0 ) e si minimizza rispetto a b <strong>la</strong> (3)<br />

tenendo fisse t , y i , attraverso le stime dei minimi quadrati che generano ∧ z :<br />

b = (X 0 ′X 0 ) -1 X 0 ′z 0 ∧<br />

z = X<br />

0<br />

b (5)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!