16.04.2013 Views

As determinantes locais da paradiplomacia: o caso dos municípios ...

As determinantes locais da paradiplomacia: o caso dos municípios ...

As determinantes locais da paradiplomacia: o caso dos municípios ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Tabela 7 - Esboço <strong>da</strong> Regressão logística: o modelo quando to<strong>da</strong>s as variáveis são<br />

inclui<strong>da</strong>s<br />

Será apresentado mais a frente quando a regressão logística for ro<strong>da</strong><strong>da</strong> para o nosso<br />

modelo específico, o que ca<strong>da</strong> um <strong>dos</strong> scores representa. Não faz sentido explicar os <strong>da</strong><strong>dos</strong> a<br />

essa altura, já que não são esses os valores do estudo. Essa foi a primeira tentativa de<br />

representar fielmente o modelo teórico descrito no capítulo 3, porque foram incluí<strong>dos</strong> to<strong>dos</strong> os<br />

indicadores que representam as <strong>determinantes</strong> <strong>locais</strong> aponta<strong>da</strong>s por Sol<strong>da</strong>tos e que são<br />

respal<strong>da</strong><strong>dos</strong> por outros autores, lembrando que o modelo foi a<strong>da</strong>ptado para o <strong>caso</strong> brasileiro<br />

com as devi<strong>da</strong>s justificativas.<br />

5.2.2 Lineari<strong>da</strong>de<br />

Iteration 0: log likelihood = -334.44023<br />

Iteration 1: log likelihood = -245.89714<br />

Iteration 2: log likelihood = -172.44642<br />

Iteration 3: log likelihood = -141.13221<br />

Iteration 4: log likelihood = -136.172<br />

Iteration 5: log likelihood = -134.96379<br />

Iteration 6: log likelihood = -134.90905<br />

Iteration 7: log likelihood = -134.90743<br />

Iteration 8: log likelihood = -134.90743<br />

Logistic regression Number of obs = 5427<br />

LR chi2(18) = 399.07<br />

Prob > chi2 = 0.0000<br />

Log likelihood = -134.90743 Pseudo R2 = 0.5966<br />

aint Coef. Std. Err. z P>|z| [95% Conf. Interval]<br />

regse -1.077376 1.001021 -1.08 0.282 -3.039341 .8845891<br />

front 1.374505 .549637 2.50 0.012 .2972358 2.451773<br />

metoo .5096162 .406648 1.25 0.210 -.2873993 1.306632<br />

edu .7373683 .4976833 1.48 0.138 -.2380731 1.71281<br />

idh 12.50853 6.111399 2.05 0.041 .5304093 24.48666<br />

pib .0002698 .0001454 1.86 0.064 -.0000152 .0005548<br />

pibcap .0004532 .0150132 0.03 0.976 -.0289721 .0298786<br />

pop .0073682 .0022285 3.31 0.001 .0030005 .011736<br />

exp .0015597 .0007567 2.06 0.039 .0000765 .0030429<br />

com -.000846 .0004589 -1.84 0.065 -.0017454 .0000535<br />

func .0276723 .0123203 2.25 0.025 .003525 .0518197<br />

pt 1.163203 .445333 2.61 0.009 .2903662 2.03604<br />

oposi .2135834 .4543707 0.47 0.638 -.6769668 1.104134<br />

ied -.0200256 .005242 -3.82 0.000 -.0302998 -.0097514<br />

sp 5.122452 1.703363 3.01 0.003 1.783921 8.460983<br />

sprj -2.449472 1.756463 -1.39 0.163 -5.892075 .9931315<br />

rs 1.807075 .6867147 2.63 0.009 .461139 3.153011<br />

regsesl -.3620964 .8654529 -0.42 0.676 -2.058353 1.33416<br />

cap (omitted)<br />

_cons -17.04869 4.421848 -3.86 0.000 -25.71535 -8.382027<br />

O primeiro <strong>dos</strong> pressupostos analisa<strong>dos</strong> no nosso modelo é o <strong>da</strong> lineari<strong>da</strong>de. Pode<br />

parecer estranho pensar em lineari<strong>da</strong>de como uma condição para o modelo logístico, <strong>da</strong>do que<br />

anteriormente foi dito que a noção básica do logit é a presença de variável dependente<br />

categórica. Conforme se explicou no capítulo 4, esse pressuposto é um pouco distinto do<br />

encontrado na regressão linear. A lineari<strong>da</strong>de para a regressão logística ocorre entre o<br />

logaritmo natural <strong>da</strong> variável dependente e as variáveis independentes contínuas.<br />

205

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!