13.11.2014 Views

Un algoritmo per la regressione multipla con dati categoriali

Un algoritmo per la regressione multipla con dati categoriali

Un algoritmo per la regressione multipla con dati categoriali

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

UN ALGORITMO REGRESSIONE 7<br />

<strong>Un</strong>a volta ottenute z os ed x j os si applica successivamente una <strong>regressione</strong> multip<strong>la</strong>,<br />

minimizzando <strong>la</strong> (1) rispetto ai b, <strong>con</strong> t # , y j # fissati, e così via, fino al<strong>la</strong> <strong>con</strong>vergenza<br />

dell’<strong>algoritmo</strong> che è assicurata (de Leeuw, 1973).<br />

3. Osservazioni<br />

a) Come <strong>la</strong> filosofia Als suggerisce (Young 1981), le stime trovate in uno stadio<br />

<strong>per</strong> un sottinsieme di parametri, andrebbero sostituite nel passo successivo <strong>per</strong><br />

ottenere le stime dell’altro sottinsieme; <strong>la</strong> stima z os andrebbe sostituita nel<strong>la</strong> (15) <strong>per</strong><br />

ricavare i pesi di scaling y j , ottenendo stime dei parametri di scaling probabilmente<br />

differenti. (Lo stesso problema si presenta in Morals e Canals <strong>per</strong> <strong>la</strong> stima dei<br />

punteggi delle variabili indipendenti ricavate dal<strong>la</strong> (4) in cui ogni variabile stimata<br />

x os u<br />

j andrebbe immediatamente sostituita nel<strong>la</strong> (4) <strong>per</strong> ricavare le altre x i <strong>con</strong> i ≠j)<br />

b) La (8) e <strong>la</strong> (16) <strong>per</strong> variabili nominali implicano che le quantificazioni delle<br />

categorie (t) di z coincidono <strong>con</strong> <strong>la</strong> media dei valori previsti dal modello <strong>per</strong> z, in<br />

∧<br />

altre parole t a è <strong>la</strong> media dei valori z dei soggetti che rientrano nel<strong>la</strong> categoria a,<br />

mentre <strong>la</strong> quantificazione del<strong>la</strong> categoria a del<strong>la</strong> variabile x j (y ja ) è uguale al<strong>la</strong> media<br />

dei valori di ∧ z j che corrispondono al<strong>la</strong> categoria a in x j .<br />

La (os. 2) mostra che <strong>la</strong> stima di x j u coincide <strong>con</strong> <strong>la</strong> proiezione di ∧ z j sulle colonne di<br />

G j . Se z è <strong>con</strong>tinua (o lo sono alcune variabili indipendenti) i punteggi di tali variabili<br />

restano costanti durante tutto l’<strong>algoritmo</strong>, evitando <strong>la</strong> fase di optimal scaling (z os = z,<br />

x os = x).<br />

c) La metodologia <strong>per</strong> ottenere le stime di optimal scaling è coerente <strong>con</strong> il<br />

problema di minimo del modello poichè le stime dei parametri di scaling y j u sono<br />

ottenute riducendo ulteriormente <strong>la</strong> devianza residua (DR) che il modello di<br />

<strong>regressione</strong> <strong>la</strong>scia dopo <strong>la</strong> stima dei pesi b del primo stadio:<br />

DR = SSQ(z 0 - Σ j x j<br />

0<br />

b j ) = SSQ(z 0 - ∧ z ) ≥ SSQ(z os - ∧ z ) + Σ j SSQ( ∧ z j - x j os ) (19)<br />

poiché nel<strong>la</strong> (9) emerge che, sia nel passo di stima di z os sia di x j os :<br />

SSQ(z os - ∧ z ) ≤ SSQ(z 0 - ∧ z ) & SSQ( ∧ z j - x j os ) ≤ SSQ( ∧ z j - x j 0 ) (20)<br />

Mentre il residuo viene minimizzato nel passo di stima di z u ed x u j (e ulteriormente<br />

<strong>per</strong> variabili ordinali nel passo di <strong>regressione</strong> monotona in z os ed x os j ), nell’<strong>algoritmo</strong><br />

Morals, invece, <strong>la</strong> riduzione del residuo avviene solo nel passo di normalizzazione di<br />

x u i in x os i , dove le x u<br />

j sono ricavate dall’identità (4) senza alcuna riduzione del<strong>la</strong><br />

devianza residua.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!