25.10.2014 Views

Sílabo Regresión Aplicada - Universidad Nacional Agraria La Molina

Sílabo Regresión Aplicada - Universidad Nacional Agraria La Molina

Sílabo Regresión Aplicada - Universidad Nacional Agraria La Molina

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

UNIVERSIDAD NACIONAL AGRARIA LA MOLINA<br />

Escuela de Post Grado<br />

SILABO<br />

I. DATOS GENERALES<br />

1.1 Curso: Regresión <strong>Aplicada</strong><br />

1.2 Maestría: Estadística <strong>Aplicada</strong><br />

1.3 Código: EP7115<br />

1.4 Crédito: 2-2-3<br />

1.5 Requisitos: Ninguno<br />

1.6 Profesor: MS Carlos López de Castilla Vásquez<br />

1.7 Aula virtual: http://posgrado.lamolina.edu.pe/login/index.php<br />

1.7 Web: http://tarwi.lamolina.edu.pe/~clopez<br />

II.<br />

III.<br />

SUMILLA<br />

El curso Regresión <strong>Aplicada</strong> está orientado a brindar metodologías<br />

estadísticas que permitan expresar y analizar la relación existente entre<br />

una variable dependiente y una o varias variables independientes.<br />

Asimismo en el curso se presentan alternativas para conjunto de datos<br />

de regresión que no cumplen con los supuestos del análisis. Para el<br />

desarrollo del curso se hará uso del programa estadístico R y Minitab.<br />

OBJETIVOS GENERALES<br />

Al finalizar el curso el estudiante estará en condiciones de aplicar el<br />

análisis de regresión para estimar un modelo que permita explicar de<br />

manera apropiada el comportamiento de la variable de interés usando<br />

los paquetes estadísticos R y Minitab.<br />

IV.<br />

OBJETIVOS ESPECIFICOS<br />

Al finalizar el curso el estudiante estará en capacidad de:<br />

Estimar un modelo de regresión, realizar el proceso de estimación por<br />

intervalos y establecer pruebas de hipótesis sobre sus parámetros.<br />

Realizar el proceso de estimación usando la regresión ponderada y los<br />

modelos polinomiales.<br />

Incluir variables predictoras cualitativas a través del uso de variables<br />

indicadoras.<br />

Elegir la transformación adecuada de la variable respuesta y de las<br />

variables predictoras que permitan cumplir con los supuestos del<br />

análisis.<br />

Aplicar las técnicas de análisis de residuales para detectar violaciones<br />

de los supuestos del análisis de regresión y sus medidas remediales.<br />

Realizar el análisis de Influencia para detectar los casos influyentes,<br />

así como las sugerencias de tratamiento.<br />

Aplicar las técnicas de selección de variables para obtener el mejor<br />

modelo.<br />

1


UNIVERSIDAD NACIONAL AGRARIA LA MOLINA<br />

Escuela de Post Grado<br />

V. CONTENIDO<br />

Semana 1:<br />

Capítulo I: Diagrama de Dispersión y Regresión<br />

• Introducción. Diagrama de dispersión. Función media. Función variancia.<br />

Gráficos de resumen. Herramientas para observar un diagrama de<br />

dispersión. Tamaño. Transformaciones. Suavizadores para la función<br />

media. Matrices de dispersión.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 1<br />

Semana 2:<br />

Capítulo II: Regresión Lineal Simple<br />

• Introducción. Estimación por mínimos cuadrados ordinarios. Estimando<br />

la variancia. Propiedades de los estimadores.<br />

• Comparando modelos. Análisis de variancia. <strong>La</strong> prueba F. Interpretando<br />

el valor p. Potencia de la prueba. El coeficiente de determinación.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 2<br />

Semana 3<br />

Capítulo II: Regresión Lineal Simple<br />

• Intervalos de confianza y pruebas de hipótesis. El intercepto. <strong>La</strong><br />

pendiente. Predicción. Valores estimados. Intervalos de confianza. Los<br />

residuales. Gráficos de residuales.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 2<br />

Semana 4:<br />

Capítulo III: Regresión Múltiple<br />

• Introducción. Agregando un término. Explicando la variabilidad. Grafico<br />

de variable añadida.<br />

• Modelo de regresión lineal múltiple. Términos y predictores. Mínimos<br />

cuadrados ordinarios. Data y notación matricial. Matriz de variancia<br />

covariancia para los errores. Estimadores por mínimos cuadrados<br />

ordinarios. Propiedades de los estimadores.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 3<br />

Semana 5:<br />

Capítulo III: Regresión Múltiple<br />

• Análisis de variancia. El coeficiente de determinación. Hipótesis sobre<br />

uno de los términos. Relación con el estadístico t. Gráficos de variable<br />

añadida. Tabla de análisis de variancia secuencial.<br />

• Predicción y valores estimados.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 3<br />

2


UNIVERSIDAD NACIONAL AGRARIA LA MOLINA<br />

Escuela de Post Grado<br />

Semana 6:<br />

Capítulo IV: Regresión Ponderada y Falta de Ajuste<br />

• Mínimos cuadrados ponderados. Falta de ajuste con variancia conocida<br />

y desconocida.<br />

• Prueba F General. Regiones conjuntas de confianza.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 5<br />

Semana 7:<br />

Capítulo V: Regresión Polinomial y Factores<br />

• Regresión Polinomial. Polinomios con varios predictores.<br />

• Factores. Comparación de líneas de regresión.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 6<br />

Semana 8:<br />

Examen Parcial<br />

Semana 9:<br />

Capítulo VI: Transformaciones<br />

• Transformaciones y diagramas de dispersión. Transformaciones<br />

potencia. Transformando solo la variable predictora. Transformando solo<br />

la variable respuesta. El método de Box y Cox.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 7<br />

Semana 10:<br />

Capítulo VI: Transformaciones<br />

• Transformaciones y matrices de dispersión. Selección automática para<br />

los predictores. Transformando la variable respuesta. Transformaciones<br />

para variables no positivas.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 7<br />

Semana 11:<br />

Capítulo VI: Los residuales<br />

• Los residuales. Diferencias entre los errores y residuales. <strong>La</strong> matriz hat.<br />

Residuales cuando el modelo es correcto. Residuales cuando el modelo<br />

es incorrecto.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 8<br />

3


UNIVERSIDAD NACIONAL AGRARIA LA MOLINA<br />

Escuela de Post Grado<br />

Semana 12:<br />

Capítulo VI: Los residuales<br />

• Variancia no constante. Transformaciones para estabilizar la variancia.<br />

Un diagnóstico para variancia constante. Gráficos para evaluar el<br />

modelo.<br />

• Chequeando la función media. Chequeando la función variancia.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 8<br />

Semana 13:<br />

Capítulo V: Outliers y valores influenciales<br />

• Outliers. Una prueba para detectarlos. Casos influénciales. Distancia de<br />

Cook. Otras medidas de influencia. Supuesto de normalidad.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 9<br />

Semana 14:<br />

Capítulo VI: Selección de variables<br />

• Multicolinealidad y variancias. Selección de variables. Métodos<br />

computacionales intensivos. Selección de los mejores subconjuntos.<br />

Lectura:<br />

‣ Weisberg, S. Cap. 10<br />

Semana 15:<br />

Presentación y exposición de trabajo final.<br />

Semana 16:<br />

Examen Final<br />

VI.<br />

METODOLOGÍA<br />

<strong>La</strong>s clases se realizarán mediante exposiciones teórico-prácticas. Se<br />

plantearán trabajos individuales que deberán ser ingresados en el aula<br />

virtual del curso. Cada estudiante contará con un equipo de cómputo<br />

con los programas estadísticos R y Minitab. En las clases se hará uso<br />

de pizarra, proyector de cañón y los recursos disponibles en el aula<br />

virtual.<br />

VII. EVALUACIÓN<br />

Examen Parcial 30%<br />

Examen Final 30%<br />

Trabajos Encargados 20%<br />

Trabajo Final con exposición. 20%<br />

4


UNIVERSIDAD NACIONAL AGRARIA LA MOLINA<br />

Escuela de Post Grado<br />

VIII. FUENTES DE INFORMACIÓN<br />

8.1 Bibliografía Básica:<br />

• Weisberg, S. (2005). Applied Linear Regression. 3 rd edition John Wiley<br />

& Sons Inc. Hoboken. New Jersey.<br />

• Montgomery Douglas, Peck Elizabeth y Vining Geoffrey (2001).<br />

Introduction to Linear Regression Analysis, Tercera edición, John Wiley<br />

& sons, New York.<br />

8.2 Bibliografía Complementaria:<br />

• Acuña Fernández, Edgar (2002). Análisis de Regresión, Departamento<br />

de Matemáticas de <strong>La</strong> <strong>Universidad</strong> de Puerto Rico, Recinto<br />

Universitario de Mayagüez.<br />

http://math.upr.clu.edu/~edgar/class6205.html.<br />

• Faraway Julian (2002). Practical Regression and Anova using R,<br />

http://cran.r-project.org/.<br />

5

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!