04.01.2015 Views

Matemáticas aplicadas

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

9-3 CADENAS DE MARKOV (OPCIONAL)<br />

Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado<br />

en cualquier etapa contiene algún elemento que depende del azar se denomina<br />

un proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podría ser las<br />

condiciones del tiempo en Veracruz en una serie de días consecutivos: el tiempo<br />

cambia día con día de una manera que en apariencia es algo aleatorio. O bien, la sucesión<br />

podría consistir de los precios diarios al cierre de ciertas acciones que cotizan<br />

en la bolsa, en donde otra vez interviene cierto grado de aleatoriedad. Una sucesión<br />

de elecciones gubernamentales es otro ejemplo de un proceso estocástico.<br />

Un ejemplo muy simple de un proceso estocástico es una sucesión de ensayos<br />

de Bernoulli, por ejemplo, una sucesión de lanzamientos de una moneda. En este caso,<br />

el resultado en cualquier etapa es independiente de todos los resultados previos.<br />

(En realidad, esta condición de independencia es parte de la definición de los ensayos<br />

de Bernoulli). Sin embargo, en la mayoría de los procesos estocásticos cada<br />

resultado depende de lo que sucedió en etapas anteriores del proceso. Por ejemplo,<br />

el tiempo en un día determinado no es aleatorio por completo, sino que es afectado<br />

en cierto grado por el tiempo de días previos. El precio de una acción al cierre de<br />

cualquier día depende en cierta medida del comportamiento de la bolsa en días<br />

previos.<br />

El caso más simple de un proceso estocástico en que los resultados dependen<br />

de otro(s), ocurre cuando el resultado en cada etapa sólo depende del resultado de<br />

la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina<br />

proceso de Markov o cadena de Markov (una cadena de eventos, cada evento<br />

ligado al precedente).<br />

DEFINICIÓN Una cadena de Markov es una sucesión de ensayos similares u observaciones<br />

en la cual cada ensayo tiene el mismo número finito de resultados posibles,<br />

y en donde también la probabilidad de cada resultado para un ensayo dado<br />

depende sólo del resultado del ensayo inmediatamente precedente y no de cualesquier<br />

resultado previo.<br />

Por ejemplo, consideremos las condiciones de tiempo diarias en cierta localidad,<br />

y supongamos que sólo estamos interesados en el hecho de que cada día sea<br />

lluvioso o seco. Entonces, cada ensayo (esto es, cada observación diaria del tiempo)<br />

tiene los mismos dos resultados: lluvioso o seco. Si suponemos que las probabilidades<br />

de que mañana sea un día lluvioso o seco están determinadas por completo por<br />

el hecho de que hoy es un día lluvioso o seco, podríamos concluir que esta sucesión<br />

de ensayos formaría una cadena de Markov.<br />

Al trabajar con cadenas de Markov, a menudo es útil pensar la sucesión de ensayos<br />

como experimentos efectuados en cierto sistema físico, y cada resultado deja<br />

a este sistema en cierto estado. Por ejemplo, consideremos una sucesión de elecciones<br />

políticas en cierto país: el sistema podría tomarse como el país mismo y cada<br />

elección lo dejaría en cierto estado, es decir, en el control del partido ganador. Si sólo<br />

hay dos partidos políticos fuertes, llamados A y B, los que por lo regular controlan<br />

el gobierno, entonces podemos decir que el país se encuentra en el estado A o B<br />

SECCIÓN 9-3 CADENAS DE MARKOV (OPCIONAL) 369

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!