Métodos Quantitativos
Métodos Quantitativos
Métodos Quantitativos
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>Métodos</strong> <strong>Quantitativos</strong><br />
PROF. DR. Renato Vicente
Aula 6A<br />
Revisão
Inferência<br />
Estatística<br />
Método Estatístico<br />
População<br />
Teoria de<br />
Probabilidades<br />
Amostra<br />
Estatística<br />
Descritiva
Jogos de Azar<br />
Linha do Tempo da Estatística<br />
Teoria de<br />
Probabilidades<br />
Teoria de<br />
Evolução<br />
1<br />
2<br />
3<br />
Aritmética do Estado<br />
Inferência Estatística<br />
<strong>Métodos</strong> Nãoparamétricos<br />
2000 aC 0 1000 1500 1750 1870 1930 1960 1980<br />
Demografia<br />
Teoria de<br />
Erros<br />
1 2 3<br />
Computadores<br />
Eletrônicos
Estatística Descritiva: Variáveis qualitativas<br />
Classes de qualitativas:<br />
Setores, barras, barras, rosa<br />
de Nightingale
Ranking do PIB (do mais pobre<br />
para o mais rico)<br />
Estatística Descritiva: Variáveis quantitativas<br />
140<br />
120<br />
100<br />
80<br />
60<br />
40<br />
20<br />
0<br />
0 0,2 0,4 0,6 0,8 1 1,2<br />
Índice de Desenvolvimento Humano<br />
Quant X quant : Dispersão
Estatística Descritiva: Distribuições de variáveis<br />
aleatórias<br />
Histograma<br />
Boxplot
Estatística Descritiva: Resumindo informação<br />
+ robusto<br />
Rol dos dados<br />
Histogramas ou tabelas de freqüência<br />
Média e Desvio Padrão<br />
Sumário dos 5 números: Min, Segundo<br />
Quartil (25%), Mediana (50%), Terceiro<br />
Quartil (75%), Máx<br />
Moda e Largura a Meia altura
Inferência<br />
Estatística<br />
Método Estatístico<br />
População<br />
Teoria de<br />
Probabilidades<br />
Amostra<br />
Estatística<br />
Descritiva
Probabilidades: Calculando Riscos de<br />
Extrapolação<br />
População<br />
Média desconhecida=x<br />
Amostra real estimativa<br />
da média = x1<br />
Dada uma única amostra de tamanho n, qual seria o<br />
intervalo que conteria a média populacional<br />
desconhecida em 95 % das vezes ?
Amostras<br />
hipotéticas do<br />
mesmo tamanho<br />
Probabilidades: Calculando Riscos de<br />
Extrapolação<br />
Amostra real<br />
Estimador= x1<br />
População<br />
Grandeza desconhecida=x<br />
1. Imaginamos um número bem grande de amostras aleatórias<br />
do mesmo tamanho.<br />
2. Imaginamos que calculamos valores estimados em cada um<br />
delas. Estes valores estimados estariam distribuídos em<br />
torno do valor desconhecido da grandeza.<br />
3. A Teoria de Probabilidades nos permite então descrever a<br />
distribuição destes valores.
Inferência<br />
Estatística<br />
Inferência Estatística<br />
População<br />
Amostra<br />
A teoria de probabilidades nos permite estimar a<br />
partir de uma amostra um intervalo com confiança<br />
definida para os valores na população. Para isso<br />
calculamos um estimador de intervalo.
Inferência Estatística<br />
Suponha que queiramos determinar a MÉDIA POPULACIONAL de uma<br />
quantidade. A amostra tem tamanho n. Calculamos a média amostral:<br />
E o desvio padrão amostral:<br />
O intervalo de confiança é :<br />
c depende do nível de confiança desejado e do número de dados n
Estatística T<br />
Quando a amostra for pequena teremos que fixar uma confiança (por exemplo,<br />
95%) e procurarmos pelo valor de c em uma tabela conhecida como estatística T.<br />
http://www.dim.fm.usp.br/info/tabelat/tabelat.php<br />
Por exemplo, nossa amostra de crânios etruscos tem n=4:<br />
141 148 132 138<br />
Digamos que desejamos estimar um intervalo com confiança 95%<br />
para a média da população. Começamos por calcular a média:<br />
Média=(141+148+132+138)/4 = 139,75<br />
Calculamos em seguida o desvio padrão amostral:<br />
DPA = 6,65
Estatística T<br />
Por exemplo, nossa amostra de crânios etruscos tem n=4:<br />
141 148 132 138<br />
Digamos que desejamos estimar um intervalo com confiança 95% para a média<br />
da população. Começamos por calcular a média:<br />
Média=(141+148+132+138)/4 = 139,75<br />
Calculamos em seguida o desvio padrão amostral:<br />
DPA = 6,65<br />
O número de graus de liberdade é n-1=3 (df=3). Consultando a tabela usamos<br />
t(0.975), pois queremos um intervalo com 2,5% em cada lado (95% no total,<br />
portanto). Na tabela obtemos t(0.975)= 3,18.<br />
Assim teremos o seguinte intervalo com confiança de 95%:<br />
139,75-3,18*6,65/RAIZ(4) < MÉDIA POP < 139,75+3,18*6,65/RAIZ(4)<br />
IC_MédiaPop(95%) = [129,150]
Aula 6B<br />
Regressão
Biometria: Regressão Linear<br />
i 1 2 3 4 5 6 7<br />
x(i) 11.2 12.4 13.5 15.7 17.1 18.5 19.0<br />
y(i) 3.0 3.2 4.0 4.8 4.8 4.9 5.6<br />
http://www.stat.wvu.edu/SRS/Modules/Applets/Regression/regression.html<br />
http://www.math.csusb.edu/faculty/stanton/probstat/regression.html
Regressão Linear<br />
As distâncias entre as<br />
observações e a reta escolhida<br />
são aleatórias.<br />
A melhor reta é aquela que<br />
minimiza a soma total destas<br />
distâncias (mínimos<br />
quadrados)<br />
http://www.stat.wvu.edu/SRS/Modules/Applets/Regression/regression.html<br />
http://www.math.csusb.edu/faculty/stanton/probstat/regression.html<br />
A qualidade do ajuste é<br />
medida pelo R2 (quadrado da<br />
correlação de Pearson) que<br />
significa a fração da variação<br />
que é explicada pelo ajuste.<br />
Assim R2=1 indica ajuste<br />
perfeito.
Aula 6C<br />
Testes de Hipóteses
Popper: Método Indutivo<br />
Em 1934 Karl Popper publicou a Lógica da<br />
Pesquisa Científica. Neste livro Popper procura<br />
delimitar hipóteses científicas a partir da<br />
propriedade de falseabilidade, ou seja, a partir da<br />
possibilidade de realizar-se um experimento que<br />
contradiga previsões deduzidas de uma hipótese<br />
científica.<br />
H -> C1, C2, C3, ... Cn<br />
Como em geral não é possível verificar todos os<br />
experimentos possíveis, não seria possível provar<br />
uma hipótese. Mas apenas uma observação<br />
contraditória seria suficiente para rejeitá-la.<br />
Também não é possível garantir que as mesmas<br />
consequências não possam emergir de outras<br />
hipóteses.
Teste de Significância: valor p<br />
Ronald A Fisher<br />
(1890-1962)<br />
Em 1925 Fisher publicou um livro que viria a ser o<br />
primeiro manual de métodos estatísticos:<br />
Statistical Methods for Research Workers . Neste<br />
livro são apresentadas técnicas para avaliação do<br />
VALOR-p, medida da probabilidade de obtermos<br />
resultados iguais ou mais extremos do que nossas<br />
observações dado que uma HIPÓTESE NULA<br />
H0 seja verdadeira<br />
Quanto menor p, mais improvável a observação<br />
se H0 for verdadeira.<br />
Se p< nível de significância (usualmente 5%)<br />
rejeitamos H0. Se p>5% não-rejeitamos H0.<br />
Poderia haver outra explicação, mas não há<br />
evidência contra H0.<br />
http://www.amstat.org/publications/jse/v16n3/pvalueapplet.html
Neyman e Egon Pearson: Testes de<br />
Hipóteses<br />
Egon Pearson<br />
(1895-1980)<br />
Neyman e Pearson (filho de<br />
Karl Pearson, odiado por R.A.<br />
Fisher) notaram que os testes<br />
de significância podem ser<br />
aplicados de forma mais efetiva<br />
quando a Hipótese nula é<br />
comparada à uma Hipótese<br />
Alternativa.<br />
http://www.amstat.org/publications/jse/v16n3/pvalueapplet.html<br />
Jerzy Neyman<br />
(1894-1981)
Comparando médias: Teste T<br />
Grupo<br />
controle<br />
Grupo<br />
em tratamento<br />
Suponhamos duas amostras em um experimento com dois tratamentos. AS<br />
distribuições amostrais são representadas acima
Comparando médias: Teste T<br />
variabilidade<br />
média<br />
variabilidade<br />
baixa<br />
variabilidade<br />
alta<br />
Dependendo da variabilidade observada a diferença entre médias será mais<br />
ou menos significativa.
Comparando médias: Teste T<br />
sinal<br />
Diferença entre as médias<br />
ruído Variabilidade dos grupos<br />
A estatística T mede a relação sinal ruído da diferença entre as médias<br />
amostrais . Após calcular o valor t. Basta observar a significância em uma<br />
tabela T. A Hipótese nula corresponde a médias idênticas. A hipótese<br />
alternativa a médias diferentes.
Tipos de Erros<br />
Inocente Culpado<br />
Condenado Erro TIPO I Correto<br />
Liberado Correto Erro TIPO II<br />
H0 verdadeira H1 verdadeira<br />
Rejeita H0 Erro TIPO I Correto<br />
Não rejeita H0 Correto Erro TIPO II
Tipos de Erros<br />
http://www.intuitor.com/statistics/CurveApplet.html<br />
H0 verdadeira H1 verdadeira<br />
Rejeita H0 Erro TIPO I Correto<br />
Não rejeita H0 Correto Erro TIPO II<br />
Tipo II<br />
inocente<br />
Inocentes<br />
suspeitos<br />
culpado<br />
Criminoso<br />
s espertos<br />
com bons<br />
advogados<br />
aparência de culpa<br />
Tipo I
Poder e Significância de um Teste<br />
H0 verdadeira H1 verdadeira<br />
Rejeita H0 Erro TIPO I Correto<br />
Não rejeita H0 Correto Erro TIPO II<br />
O poder de um teste é a probabilidade de que o teste rejeite uma<br />
hipótese nula falsa. Ou seja é a probabilidade de que H1 seja julgada<br />
verdadeira quando realmente for verdadeira.<br />
Alternativamente é a chance de que o teste não cometa um erro do Tipo<br />
II, ou seja será 1-β=1-P(Erro Tipo II).<br />
A probabilidade de erros do tipo I é a significância do teste α=P(Erro<br />
Tipo I). Normalmente fixa-se primeiro a significância (1% ou 5%), a partir<br />
disso define-se o intervalo de rejeição da hipótese nula. O poder do<br />
teste é conseqüência desta escolha, do tamanho da amostra e da<br />
própria amostra. Testes com poder muito baixo são pouco informativos.<br />
http://www.intuitor.com/statistics/CurveApplet.html